Cosme Florian Leblond Erik BTSIG1 Carte graphique Introduction : Une carte graphique ou carte vidéo (anciennement par abus de langage une carte VGA), ou encore Adaptateur graphique; est une carte d'extension d'ordinateur dont le rôle est de produire une image affichable sur un moniteur d'ordinateur. La carte graphique convertit les données numériques internes à l'ordinateur en un signal électrique numérique ou analogique compatible avec le moniteur. La carte graphique (écran) est la carte d'extension d'un ordinateur qui transforme un flux de données numériques en un signal analogique compréhensible par un écran. Les cartes graphiques Hercule furent les premières cartes dédiées au PC, elles étaient en noir et blanc (ou plutôt selon le moniteur ambré). La couleur est réellement apparue avec les premiers 286. A cette époque, la norme était le CGA ou EGA, le moniteur devait être compatible avec la carte écran. Utilisant une résolution et un nombre de couleurs restreint, cette norme fut remplacée par la norme VGA. La norme VGA permettait d'afficher une résolution de 640 * 480 points en 16 couleurs. Une carte graphique VGA inclut 256 k de mémoire. Comme chaque constructeur souhaite toujours améliorer, chacun a sorti des cartes graphiques S-VGA (pour Super VGA). Ces cartes ne répondent pas à une norme, chaque constructeur développe un pilote (un programme) qui permet au système d'exploitation de gérer ses possibilités. Chaque pilote est spécifique au modèle de carte graphique mais aussi au système d'exploitation. Le mode VGA est reconnu par tous les systèmes d'exploitation actuels. Pour passer en mode supérieur, un pilote-driver (le programme spécifique au matériel) doit être installé. Il est normalement spécifique au système d'exploitation (XP et 2000 acceptent généralement les mêmes pilotes. Vista en nécessite des nouveaux. Une zone mémoire est réservée dans la mémoire haute depuis les premiers 8088. Elle est actuellement largement inférieure à celles utilisées par une carte graphique (jusque 256 MB) et peut être récupérée par les commandes DOS de mémoires hautes. Le processeur graphique garde les zones non modifiées dans sa propre mémoire. Ceci permet de ne pas trop utiliser le processeur. Une carte écran se caractérise par: 1) Processeur 2) Chipset 3) Mémoire 4) RAMDAC : Convertisseur digital – analogique (DAC) 5) Taux de rafraîchissement maximum. 6) Possibilités 3D 7) BIOS Vidéo 8) Connectique 9) Performances Quelques unes de ces caractéristiques sont identiques à celle d'un système à microprocesseur: processeur, mémoire et Bios. En effet, le sous système vidéo est un système à microprocesseur tout à fait conforme dont le seul but est de traiter des informations digitales provenant du PC pour les transférer vers le convertisseur. 1) Composants Le processeur graphique Le processeur graphique NV43 d'une GeForce 6600 GT Les performances d'une carte graphique dépendent en grande partie du processeur central. En effet, le processeur indique à la carte graphique tout ce qu'elle doit calculer. Cependant celuici devant aussi gérer les autres paramètres du jeu, il se peut qu'il ne fournisse pas assez d'informations, et alors la carte graphique doit attendre que le processeur ait terminé de mouliner. Il faut un processeur bien adapté à la carte vidéo afin d'éviter ce genre de piège. Mais il ne sert à rien d'avoir un processeur dernier cri avec une carte graphique d'entrée de gamme en utilisation ludique. Plus la résolution augmente, plus le travail de la carte graphique sera important. Le processeur graphique (Graphical Processing Unit ou GPU en anglais) sert à libérer le micro-processeur de la carte mère en prenant en charge les calculs spécifiques à l’affichage, en particulier les calculs spécifiques à l’affichage en 3D ou la conversion YCbCr vers RGB. Cette division des tâches entre les deux processeurs libère le processeur principal de l’ordinateur et en augmente d’autant la puissance. Le processeur graphique est très souvent muni de son propre radiateur ou ventilateur pour évacuer la chaleur qu’il produit. Ces 15 dernières années, les cartes graphiques ont fortement évolué. Autrefois, la fonction essentielle d'une carte graphique était de transmettre les images produites par l'ordinateur à l'écran. C'est encore sa fonction principale sur beaucoup de machines à vocation bureautique ou l'affichage d'images en 3D n'offre que peu d'intérêt. Toutefois aujourd'hui même les cartes graphiques les plus simples gérent aussi le rendu d'images en 3D temps réél avec plus ou moins de succès. C'est une activité très couteuse en terme de calculs et en terme de bande passante mémoire. Le GPU est donc devenu un composant très complexe, très spécialisé et presque imbatable dans sa catégorie (rendu d'images en 3 dimensions). Hormis pour les jeux vidéos ou quelques usages en infographie, les possibilités des cartes graphiques ne sont que très peu exploitées en pratique. Ainsi ce sont essentiellement les joueurs qui achetent et utilisent des GPU de plus en plus puissant. Depuis quelques années, la puissance de calcul des cartes graphiques est devenue tellement importante pour un coût finalement très réduit (100 à 700€ pour les modéles grand public) que les scientifiques sont de plus en plus nombreux à vouloir en exploiter le potentiel dans d'autres domaines. Il peut s'agir de faire tourner des simulation de modèles météo, financiers ou toute opération parallélisable et nécessitant une très grande quantité de calcul. NVIDIA et AMD, les 2 principaux fabriquants de cartes graphiques haute performance grand public proposent chacun des solutions propriétaires afin de pouvoir utiliser leur produit pour du calcul scientifique[réf. nécessaire]. 2) Chipset : le circuit intégré. Le chipset graphique transforme les signaux digitaux en signaux digitaux organisés et lisibles par le convertisseur digital - analogique. Généralement, le circuit est conçu pour utiliser une certaine capacité mémoire. Par exemple, une S3 TRIO 3D gère une mémoire de 4 MB, mais une extension de 4 MB supplémentaire est possible. Ceci n'est pas à conseiller. Même si le bus d'adresse est conçu pour gérer l'extension, l'intérieur du processeur est conçu pour la mémoire de base. Vous autorisez de meilleure résolutions, mais n'améliorez pas les performances globales de la carte graphique. Parler des circuits pourrait prendre de nombreux chapitres, et vu la vitesse où les chipset vidéo apparaissent et disparaissent, une mise à jour hebdomadaire serait nécessaire, surtout au niveau 3D. Les informations suivantes sont donc données à titre indicatif. Les principaux constructeurs de cartes graphiques sont S3. Cette firme très active fabrique généralement en bas de gamme, mais peut parfois surprendre, comme la SAVAGE 4 (16MB de base, 3D). Racheté par VIA. ATI: d'excellentes cartes écrans de bas milieux de gamme. Racheté par AMD en 2006 INTEL: s'est intéressé un peu aux cartes écrans avec le i740. Ce processeur est également intégré dans le chipset 1810, gérant en base 8 MB, il est 3D. Ceci explique que les cartes à base de I810 n'incluent pas de bus AGP. Actuellement, INTEL est le principal fabricant de cartes graphiques, intégrées dans le chipset. Diamond. Généralement haut de gamme, mais spécialisé plutôt vers les jeux. Racheté par S3 en 1999. Nvidia: premier fabricant mondial, toute la gamme avec la série Gforce 3) La mémoire vidéo La mémoire vidéo conserve les données numériques qui doivent être converties en images par le processeur graphique et les images traitées par le processeur graphique avant leur affichage. Toutes les cartes graphiques supportent deux méthodes d'accès à leur mémoire. L'une est utilisée pour recevoir des informations en provenance du reste du système, l'autre est sollicitée pour l'affichage à l'écran. La première méthode est un accès direct conventionnel (RAM) comme pour les mémoires centrales, la deuxième méthode est généralement un accès séquentiel à la zone de mémoire contenant l’information à afficher à l'écran. La mémoire vidéo : variant généralement de 16 à 512 Mo, elle est utilisée pour stocker les textures (généralement sous formes d'images). Plus la taille de cette mémoire est importante, mieux c'est. Attention de ne pas non plus tomber dans l'inutile : 16 Mo (mémoire partagée, utilisée notamment par la technologie Turbo Cache que nous allons détailler plus bas) sont largement suffisants en utilisation bureautique et multimédia. Les jeux en revanche ne se satisferont pas d'une quantité aussi limitée, même si la mémoire vive vient en renfort avec cette technologie. La largeur du bus de la mémoire joue également beaucoup : un bus de 128 bit de largeur sera généralement moins performant qu'un 256 bit. Aujourd'hui, il existe deux types de mémoire vidéo : - La mémoire GDDR 2 (DDR pour Double Data Rate), exploitant les fronts montants et descendants de la mémoire, autrement dit la bande passante est doublée par rapport à la SDRAM à même fréquence. On trouve plutôt ce type de mémoire sur les cartes graphiques bas de gamme. - La mémoire GDDR 3 : presque identique à la GDDR 2, elle gagne en fréquence et sa tension d'alimentation diminue. Elle est toujours utilisée même dans les cartes graphiques les plus haut de gamme. La mémoire de la carte graphique permet d'augmenter la résolution tout en gardant un nombre de couleurs respectables. Par exemple, un écran de 1024 * 768 pixels en 2 couleurs (noir et blanc) nécessite 786.432 pixels * 1 bit /8 (pour codage en octets)=98 K. Pour 4 couleurs (nb. Octets =2), 196,6K et en 16 couleurs (4 bits):384 K. Ceci donnerait pour 1600 * 1200 en 16 millions de couleurs (14 bits)=30.000 MB, blups … Résolution 640 * 480 800 * 600 1024 * 768 Nombre de couleurs 256 32 K 64 K 16 Millions ( 24 bits) 16 256 32 K 64 K 16 M 16 256 32 K 64 K Mémoire 512K 1 MB 1 MB 1 MB 512 K 512K 1 MB 1 MB 2 MB 512K 1 MB 2 MB 2 MB 1280 * 1024 1600 * 1200 16 M 16 256 256 64 K 4 MB 1 MB 2 MB 4 MB 4 MB Dans le cas des cartes 3D, une large partie de la mémoire est utilisée pour enregistrer des textures. Une carte 3D 32 MB ne permet donc pas d'utiliser des résolutions très élevées. De toute façon, aucun écran actuel n'est capable d'afficher les résolutions maximum des cartes écrans. Pour rappel, l'œil humain est limité à 16 Millions de couleurs. Le processeur est relié à la mémoire à travers un large bus compris entre 64 et 128 bits. Les types de mémoires utilisées ont également leur importance. La mémoire VRAM était-il y a peu couramment utilisées. Le processeur et le RAMDAC (convertisseur digital – analogique) peuvent y accéder simultanément. La mémoire WRAM développée par SAMSUNG offre des débits 25% supérieurs à la VRAM et dispose de fonctions pré décodées tel que le dessin de texte ou le remplissage de blocs. Elle est apparue avec la Matrox Millenium. La DRAM a été développée par MoSYS et constituée d'une multitude de petits bancs mémoires (32K). Ceci permet d'adapter la mémoire à celle requise par blocs de 32K. Par exemple, une résolution de 1024*768 en true color (24bits) utilise 2.5 MB et non 4MB. Le débit est ici aussi largement supérieur à celui des précédents. La SGRAM (Synchronous Graphic RAM) a la capacité de fonctionner à la même vitesse que le bus et peut atteindre des fréquences supérieures à 100 Mhz. Elle est jusqu'à 4 X plus rapide que les DRAM, mais est nettement plus chère. La SDRam permet des vitesses de 150 Mhz. Déjà utilisée dans les PC La DDR SDRam, sortie en 1999 permet de faire passer la mémoire de 150 à 300 Mhz, faisant progresser la vitesse des cartes entre 25 et 30 % par rapport à une SDRam. Elle utilise le flanc montant et descendant du signal d'horloge. Sa première utilisation date de mai 2000 avec le GeForce 256 de Nvidia 64 MB. Cette mémoire est également utilisée dans les PC. DDR2 et DDR3: les cartes vidéo utilisent finalement maintenant les mêmes mémoires que les ordinateurs, juste avec un peu d'avance. La quantité de mémoire vidéo nécessaire pour stocker l'image qui va être affichée dépend de la définition affichée. Les nombre de couleurs est fonction du nombre de bits utilisé pour le codage. ex: 28 = 256 nombre de bits nombre de couleurs 1 2 4 16 8 256 15 32 768 16 65 536 24 16 777 216 32 4 294 967 296 La quantité de mémoire est simplement le nombre de pixel utile multiplié par le nombre de bits nécessaires, on divise le tout par 8 pour passer en octets (1 octet = 8 bits) ex: 640 * 480 * 4 / 8 = 153600 1Ko = 1 024o donc 153 600o = 150ko Définition en pixels 16 couleurs 256 couleurs 32 768 couleurs 65 536 couleurs 16 777 216 couleurs 4 294 967 296 couleurs 640 × 480 150 Ko 300 Ko 563 Ko 600 Ko 900 Ko 1200 Ko 800 × 600 235 Ko 469 Ko 879 Ko 938 Ko 1 407 Ko 1 875 Ko 1 024 × 768 384 Ko 768 Ko 1 440 Ko 1 536 Ko 2 304 Ko 3 072 Ko 1 280 × 1 024 640 Ko 1 280 Ko 2 400 Ko 2 560 Ko 3 840 Ko 5 120 Ko 1 600 × 1 200 938 Ko 1 875 Ko 3 516 Ko 3 750 Ko 5 625 Ko 7 500 Ko Cette indication est maintenant de peu d'intérêt car la mémoire vidéo d'une carte graphique est utilisée à de nombreuses fins. Elle permet entre autre de fluidifier l'affichage des vidéos ou encore de stocker les informations nécessaires à la synthèse d'images en 3D. Les systèmes d'exploitation modernes comme Windows Vista ou Mac OS requièrent tous deux une grande quantité de mémoire vidéo pour optimiser leur affichage. Quant aux jeux vidéos les plus récents, ils fonctionnent d'autant mieux que la quantité de mémoire vidéo est importante. Aujourd'hui on trouve couramment des cartes graphiques équipées de 256 ou 512 Mo de mémoire. La carte graphique est l'un des rares périphériques reconnus par le PC dès l'initialisation de la machine. Elle permet de convertir des données numériques brutes en données pouvant être affichées sur un périphérique destiné à cet usage (écran, vidéo projecteur, etc...). Son rôle ne se limite cependant pas à ça puisqu'elle décharge de plus en plus le processeur central des calculs complexes 3D et ce au moyen de diverses techniques que nous allons voir plus bas. 4) Le RAMDAC : le convertisseur digital – analogique Le RAMDAC (Random access memory digital analog converter) : cette puce est destinée à convertir les données numériques en données analogiques compréhensibles par les écrans cathodiques. La fréquence du RAMDAC nous renseigne sur le nombre maximal d'images par seconde que la carte peut afficher au maximum (même si sa puissance théorique est supérieure, elle sera limitée par le RAMDAC si celui-ci est cadencé trop faiblement). Rassurez-vous, les cartes ne sont jamais bridées par ce composant. On parle souvent de fréquence de rafraîchissement. Le convertisseur digital analogique permet la conversion. Il est souvent appelé RAMDAC. Plus sa vitesse est élevée, plus la fréquence de rafraîchissement verticale de l'écran est élevée (nous en reparlerons). Des cartes graphiques de haut de gamme actuels dépassent les 200 Mhz. 5) Le taux de rafraîchissement. Cette caractéristique est liée au RAMDAC. Le signal n'est pas envoyé d'un bloc vers l'écran, mais points par points suivant une ligne, ensuite celle en dessous, … Les anciens systèmes utilisaient le mode entrelacés pour camoufler leurs faibles performances (par opposition au mode non entrelacé NI). Le principe entrelacé ,utilisé dans les TV, ne rafraîchit d'abord que les lignes impaires, et ensuite reprend les lignes paires. Ceci provoque des scintillements de l'écran, tout d'abord désagréable, mais vite fatiguant. Un taux de rafraîchissement correct débute à 70 hz. Plus il est important, meilleure la qualité de l'affichage est. Néanmoins, les anciens écrans n'acceptent pas de fréquences trop élevées, supérieures à celles minimum des cartes écrans actuelles. Ceci explique qu'il faut parfois changer d'écran lorsque l'on change de carte graphique. Nous en reparlerons. La fréquence de rafraîchissement est mesurée en Hz (hertz) et va déterminer le nombre maximal d'images par seconde qui pourront être affichées. C'est pourquoi si vous avez un écran qui ne rafraîchit votre image que 60 fois par seconde, il est inutile d'avoir une carte graphique qui en débite 150, vous ne verrez pas la différence. Autant donc augmenter la qualité de l'image. 6) Les possibilités 3D Direct X7.0 (en bas) et direct X9.0 Les cartes graphiques actuelles offrent des possibilités 3D: la carte graphique est capable de créer directement des polygones et remplissages (mapping), sans interventions directes du processeur du PC. Ces possibilités sont utilisées principalement pour les jeux. Sans cartes 3D (éventuellement Ad-on), peu de possibilités de s'exprimer sur les nouveaux jeux. C'est à ce niveau que se distinguent les nouvelles cartes graphiques par rapport à celles dites 2D. Le fonctionnement de ces cartes nécessitent 2 circuits électroniques (en plus de la mémoire). Au tout début des cartes 3D, le CPU du PC créait les images et un circuit électronique (la carte écran) se contentait des les afficher. Avec l'arrivée de la première puce Voodoo de 3Dfx, la carte incluait un Triangle Setup Engine et un pixel Rendering engine directement sur la carte graphique. Ceci permettait de réduire l'utilisation du CPU du PC pour la création de polygones et des effets de pixellisation dans les jeux. Avec l'arrivée de la puce GeForce 256 en 1999, le circuit intégré intégrait en plus Transformation & Lighting (T&L). Le gros avantage est que l'on pouvait travailler sur des images constituées de plus de triangles. Pour rappel, une image 3D est entièrement constituée de triangles et la qualité de l'image est directement liée au nombre de triangles. En 2000, la GeForce2 peut élaborer jusque 25 millions de triangles par seconde, la GeForce 256 n'en gérait que 15 millions. Mise à part la technologie T&L, les circuits actuels gèrent l'éclairage par un ombrage très élaborés des pixels: chaque pixel est pourvu individuellement de données d'éclairage. La GeForce2, par exemple, peut gérer simultanément 4 pixels. Les cartes graphiques futures devraient inclure un anti-alias qui permet de lisser les angles, un peu comme pour les imprimantes laser. Implanté par NVidia depuis le processeur graphique GeForce 6600 et dans Direct X 9.0, le shader est un mécanisme utilisant des morceaux de programmes directement exécutés par le GPU et non plus par le microprocesseur de l'ordinateur. 7) Le BIOS vidéo Au même titre qu'un PC, une carte graphique possède son propre BIOS. Celui-ci est spécifique au fabricant de la carte. Ceci explique des différences de performances entre 2 cartes de Chipset identiques. Sur certain modèles, le bios est flashable Le BIOS vidéo est à la carte graphique ce que le BIOS est à la carte mère. C’est un petit programme enregistré dans une mémoire morte (ROM) qui contient certaines informations sur la carte graphique (par exemple, les modes graphiques supportés par la carte) et qui sert au démarrage de la carte graphique. 8) La connectique 4 cartes graphiques reliées en CrossFire ce qui permet d'obtenir 8 sorties vidéo DVI On peut retrouver les connexions suivantes selon les cartes graphiques : L'interface VGA standard : les cartes graphiques sont la plupart du temps équipées d'un connecteur VGA 15 broches (Mini Sub-D, composé de 3 séries de 5 broches), généralement de couleur bleue, permettant notamment la connexion d'un écran CRT. Ce type d'interface permet d'envoyer à l'écran 3 signaux analogiques correspondant aux composantes rouges, bleues et vertes de l'image. L'interface DVI (Digital Video Interface), présente sur certaines cartes graphiques, permet d'envoyer, aux écrans le supportant, des données numériques. Ceci permet d'éviter des conversions numérique-analogique, puis analogique numériques, inutiles. L'interface S-Vidéo : De plus en plus de cartes sont équipée d'une prise S-Video permettant d'afficher sur une télévision, c'est la raison pour laquelle elle est souvent appelée prise télé (notée « TV-out »). Une interface HDMI permettant de relier la carte à un écran haute définition en transmettant également la partie audio (polyvalent, ce format est le remplaçant de la péritel). Note : le DVI et le HDMI peuvent supporter les DRM. Les modèles actuels associent généralement deux types d'interface: une interface pour la télévision (S-Vidéo ou HDMI) avec une interface pour écran d'ordinateur (VGA ou DVI). Les éventuelles entrées-sorties vidéos (VGA qui sert à relier les écrans cathodiques, DVI pour les écrans plats, et une éventuelle sortie TV généralement au format S Vidéo...). La plupart des cartes possèdent maintenant une sortie TV, qui permet de regarder des DVD sur sa télé par exemple. La connectique de sortie est au format S-vidéo, avec, souvent, un adaptateur Svidéo/composite. Quelques cartes possèdent aussi un tuner vidéo, qui permet de regarder la télé sur son PC, ou encore un port DVI en plus du port VGA. Le port DVI est numérique et ne nécessite pas la traduction des données par le RAMDAC. Équipée de telles cartes, l'ordinateur devient une véritable télé associée à un magnétoscope. Certaines cartes disposent de plusieurs sorties VGA pour pouvoir brancher deux écrans sur son ordinateur: L'intérêt du DUAL HEAD est de disposer d'un affichage plus étendu sous Windows. On peut ainsi ouvrir plus de programmes tout en se repérant mieux. Les ports de connexion à la carte-mère : La plupart des cartes graphiques se placent sur les ports AGP (pour Accelerated Graphic Port) et PCI Express. Le port AGP est apparu avec le Pentium II d'Intel en 1997. Celui-ci est totalement différent d'un port PCI tant physiquement que par sa vitesse. En effet le port AGP permet de partager la mémoire vive du PC quand la mémoire de la carte graphique est saturée. Cependant cette méthode d'accès est nettement plus lente que celle de l'accès à la mémoire de la carte graphique. On différencie trois normes d'AGP : l'AGP 2X (500 Mo par seconde) l'AGP 4X (1 Go par seconde) l'AGP 8X (2 Go par seconde) Les cartes graphiques PCI Express : Le PCI Express est la norme qui a désormais remplacé l'AGP sur le marché des cartes graphiques. Plus rapide, existant en de nombreux formats, il remplace avantageusement les ports PCI et AGP. Il existe en différents débits : .Le connecteur de sortie. Le connecteur de sortie est identique en mode S-VGA (toutes les cartes actuelles) à celui de la norme VGA. Certaines cartes acceptent le RGB. Dans ce cas, le signal est séparé en 3 couleurs (rouge - vert - bleu) avant d'être transmis à l'écran via 3 connecteurs BNC. Ceci nécessite un écran spécial. Ce type de connexion ne se trouve que sur les stations de travail graphiques de haute gamme, rarement pour les PC. Double affichage et sortie TV L'affichage sur plusieurs écrans est utilisé dans les stations de travail dédiées au graphisme et dessin technique depuis plusieurs années. Depuis Win98, vous pouvez utiliser 2 cartes écran simultanément (quand les pilotes le permettent) pour afficher soit l'écran complet sur 2 écrans CRT, soit le même affichage sur 2 écrans simultanément (avec une carte écran PCI et une carte écran AGP ou des cartes écrans spécifiques). Pour le même affichage simultané, vous pouvez aussi utiliser des appareils spécialisés que l'on appelle des "splitter", sortes d'amplificateurs qui permettent de raccorder jusque 32 écrans simultanément avec la même image. Certaines cartes graphiques sont munies d'une sortie TV qui permet d'afficher votre écran informatique sur une télévision (sur les deux en même temps ou l'un ou l'autre suivant les modèles). Ce modèle de carte graphique n'est pas réellement fait pour "travailler" sur un téléviseur, mais bien pour les DVD, DIVX, ... La résolution d'une télévision est trop faible et la qualité de l'affichage de la partie informatique s'en ressent. Par contre, l'affichage des vidéos est identique à celle de la TV. Les signaux TV sont repris suivant 3 normes: PAL, SECAM et NTSC. Ces 3 normes de télévision ne sont pas compatibles entre elles. L'émission en PAL (Belgique, Allemagne, ...) vers une TV SECAM (France) et vis versa produit un signal en noir et blanc. Le système NTSC est utilisé aux Etats-Unis, Canada, ... Le problème avec les cartes graphiques sortie TV est identique. Les 3 normes sont déclinées suivant différentes versions qui dépendent du pays. 9) Performances : Quelques technologies d'amélioration de qualité ou de performances : L'antialiasing ( entrelacement ) Sous ce terme un peu barbare se cache en fait une technologie destinée à améliorer la qualité de l'image, et notamment de ses arrêtes. Qui n'a en effet pas déjà pesté devant les images "en escaliers" ? l'antialiasing permet d'y remédier plus ou moins bien. Les cartes graphiques intègrent plusieurs niveaux d'antialiasing, ces niveaux peuvent aller de 2X à 32X. Plus le niveau choisi est élevé, meilleure est la qualité, mais plus les performances sont diminuées. Voici un aperçu de ce que peut donner une image sans puis avec antialiasing : Le filtrage anisotrope : L'antialiasing, vous pourrez le constater, provoque un léger effet de flou, surtout lorsque les arrêtes à retravailler sont lointaines. Le filtrage anisotrope vient palier à ce défaut. Il a été surtout conçu pour palier les défauts d'affichage des textures lointaines en les rendant plus nettes. Le filtrage anisotrope propose lui aussi différents niveaux de filtrage qui vont généralement de 2 à 16X. Plus le niveau de filtrage est élevé, plus les performances chutent (dans une moindre mesure qu'avec l'antialiasing toutefois). Voici ce que ça donne en images : La technologie Turbo cache : Implantée par NVIDIA sur ses cartes graphiques d'entrée de gamme, la technologie turbo cache est destinée à réduire le coût de production des cartes graphiques d'entrée de gamme mais aussi à récupérer des parts de marché sur les chipsets graphiques intégrés (qui offrent des performances généralement moindres que les cartes d'entrée de gamme). Cette technique consiste à n'implanter qu'une petite quantité de mémoire vive sur la carte graphique. Elle piochera alors d'abord sur sa mémoire disponible, et si elle en a besoin de plus, ira piocher dans la mémoire vive du PC. L'accès à la mémoire vive étant bien entendu nettement plus lent que l'accès à la RAM de la carte graphique. Il en résulte donc des performances moindres mais un coût qui l'est également. Cette technologie convient donc parfaitement pour ce à quoi elle est destinée, c'est à dire l'entrée de gamme. Les cartes équipées de la technologie turbo cache embarquent de 16 à 64 Mo de mémoire, mais attention aux emballages souvent estampillés "128 Mo" par exemple (les emballages affichant la taille de la mémoire que la carte peut s'accaparer au total). Le SLI (Scalable Link Interface) : Le SLI est une technique que l'on trouvait sur les très anciennes cartes 3DFX aujourd'hui disparues. Cette technique a depuis été remise au goût du jour par NVIDIA. Le SLI consiste à utiliser deux cartes graphiques qui vont se répartir le travail. Des algorithmes sont là pour répartir équitablement la charge entre les deux cartes, c'est à dire qu'une carte ne pourra calculer que 10% de la surface totale d'une image si celle-ci est gourmande en calculs, l'autre carte se chargeant des 90 % restants. Le bénéfice de cette technologie est surtout très important dès que l'on utilise les effets de qualité disponibles (antialiasing et filtrage anisotrope). Il permet de retarder la baisse de performances et permet au système d'être de plus en plus limité par le processeur du PC (l'évolution des processeurs graphiques étant généralement plus rapide).