Technologie Nvidia gpu boost 2.0. Référence des familles de cartes graphiques Nvidia GeForce. je veux le tester en action

Boost GPU 2.0

Avec la carte graphique NVIDIA GeForce GTX 680, nous avons une nouvelle fonctionnalité importante : GPU Boost. Et la nouvelle NVIDIA GeForce GTX Titan va encore plus loin en étendant cette fonctionnalité à GPU Boost 2.0. La première version de GPU Boost 1.0 était axée sur la consommation d'énergie maximale atteinte dans les jeux modernes les plus exigeants. Dans le même temps, la température du GPU ne jouait pas de rôle particulier, sauf si elle se rapprochait du seuil critique. La vitesse d'horloge maximale a été déterminée sur la base de la tension relative. L'inconvénient était assez évident : GPU Boost 1.0 ne pouvait pas empêcher les situations où, même à une tension non critique, la température augmentait excessivement.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Pour la GeForce GTX Titan, deux paramètres sont déjà évalués : la tension et la température. C'est-à-dire que la tension relative (Vref) est déjà déterminée sur la base de ces deux paramètres. Bien sûr, la dépendance vis-à-vis des instances GPU individuelles restera, car il existe des variations dans la production de puces, de sorte que chaque carte vidéo sera différente des autres. Mais NVIDIA souligne que techniquement, l'ajout de température nous a permis d'obtenir un overclocking Boost supérieur de 3 à 7% en moyenne. La technologie GPU Boost 2.0 peut théoriquement être appliquée aux anciennes cartes graphiques, mais il est peu probable que cela se produise.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Examinons de plus près GPU Boost 2.0. Des utilitaires comme EVGA Precision Tool ou MSI Afterburner prennent déjà en charge GPU Boost 2.0. Nous avons utilisé l'outil de précision EVGA dans la version 4.0.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GPU Boost 2.0 est sensible à la température et, à basse température, la technologie peut augmenter les performances de manière plus spectaculaire. La température cible (Ttarget) est fixée à 80°C par défaut.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

La technologie GPU Boost 2.0 contient toutes les fonctions qui nous sont familières depuis la première génération de technologie, mais permet en même temps de régler une tension plus élevée, et donc des fréquences d'horloge plus élevées. Pour les overclockeurs, il est possible de modifier les paramètres. Il est possible d'activer la surtension GPU, mais soyez conscient de la diminution potentielle de la durée de vie de la carte vidéo.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Les overclockeurs peuvent augmenter Vref et Vmax (OverVoltaging). De nombreux utilisateurs du GK104 voulaient cela, mais NVIDIA n'a confié cette fonctionnalité ni aux utilisateurs ni aux fabricants. Et la carte graphique EVGA GTX 680 Classified que nous avons testée (test et examen) n'est qu'un excellent exemple. Cette carte graphique avait un module EVGA Evbot dédié qui permettait aux utilisateurs de contrôler les tensions. Mais NVIDIA a exigé de toute urgence qu'EVGA supprime le matériel supplémentaire de ses cartes graphiques. Dans le cas de GPU Boost 2.0 et OverVoltaging, NVIDIA a lui-même fait un pas dans cette direction. Ainsi, les fabricants de cartes vidéo peuvent produire plusieurs modèles de GeForce GTX Titan, par exemple, versions standards et des options avec overclocking d'usine. La surtension est activée via le commutateur VBIOS (c'est-à-dire explicitement pour que l'utilisateur soit conscient des conséquences possibles).

ParamètreSens
Nom de code de la puceGP104
Technologie de productionFinFET 16 nm
Nombre de transistors7,2 milliards
Zone centrale314 mm²
Architecture
Prise en charge matérielle DirectX
Bus mémoire
1607 (1733) MHz
Unités de calcul20 multiprocesseurs de streaming, dont 2560 ALU scalaires pour les calculs en virgule flottante dans le cadre de la norme IEEE 754-2008 ;
Unités de texture160 unités d'adressage et de filtrage de texture avec prise en charge des composants FP16 et FP32 dans les textures et prise en charge du filtrage trilinéaire et anisotrope pour tous les formats de texture
Prise en charge du moniteur
Spécifications de la carte graphique de référence GeForce GTX 1080
ParamètreSens
Fréquence de base1607 (1733) MHz
2560
Nombre d'unités de texture160
Nombre de blocs de mélange64
Fréquence de mémoire effective10000 (4 × 2500) MHz
Type de mémoireGDDR5X
Bus mémoire256 bits
Mémoire8 Go
320 Go/s
environ 9 téraflops
103 gigapixels/s
257 gigatexels / s
PneuPCI Express 3.0
Connecteurs
Consommation d'énergiejusqu'à 180 W
Nourriture supplémentaireUn connecteur à 8 broches
2
Prix ​​recommandé599-699 $ (États-Unis), 54990 roubles (Russie)

Le nouveau modèle de carte graphique GeForce GTX 1080 a reçu un nom logique pour la première solution de la nouvelle série GeForce - il ne diffère de son prédécesseur direct que par le chiffre de génération modifié. La nouveauté remplace non seulement les meilleures solutions de la gamme actuelle de l'entreprise, mais est également devenue le produit phare de la nouvelle série pendant un certain temps, jusqu'à la sortie du Titan X sur des GPU de plus grande puissance. En dessous dans la hiérarchie se trouve le modèle GeForce GTX 1070 déjà annoncé, basé sur une version allégée de la puce GP104, que nous examinerons ci-dessous.

Les nouveaux GPU de Nvidia ont des PDSF de 599 $ et 699 $ pour l'édition régulière et Founders (voir ci-dessous), respectivement, ce qui est une assez bonne affaire étant donné que la GTX 1080 surpasse non seulement la GTX 980 Ti, mais aussi la Titan X. Aujourd'hui le nouveau produit est la meilleure solution de performance sur le marché pour les cartes vidéo à puce unique sans aucune question, et en même temps, il coûte moins cher que les cartes vidéo les plus productives de la génération précédente. Jusqu'à présent, la GeForce GTX 1080 n'a pratiquement aucun concurrent d'AMD, donc Nvidia a pu fixer un prix qui leur convient.

La carte vidéo en question est basée sur la puce GP104 avec un bus mémoire de 256 bits, mais le nouveau type de mémoire GDDR5X fonctionne à une fréquence effective très élevée de 10 GHz, ce qui donne une bande passante de crête élevée de 320 Go/s - ce qui est presque au niveau de la GTX 980 Ti avec un bus 384 bits. La quantité de mémoire installée sur une carte vidéo avec un tel bus pourrait être égale à 4 ou 8 Go, mais il serait insensé de définir un volume plus petit pour une solution aussi puissante dans les conditions modernes, donc la GTX 1080 a assez logiquement reçu 8 Go de mémoire, et cette quantité est suffisante pour exécuter n'importe quelle application 3D avec n'importe quel paramètre de qualité pendant plusieurs années à venir.

Le PCB GeForce GTX 1080 est, pour des raisons évidentes, assez différent des précédents PCB de la société. La valeur de consommation d'énergie typique du nouveau produit est de 180 W, ce qui est légèrement supérieur à celui de la GTX 980, mais nettement inférieur à celui des Titan X et GTX 980 Ti, moins puissants. La carte de référence dispose de l'ensemble habituel de connecteurs pour connecter des périphériques de sortie vidéo : un DVI Dual-Link, un HDMI et trois DisplayPort.

Conception de référence de l'édition Founders

Même avec l'annonce de la GeForce GTX 1080 début mai, une édition spéciale de la carte vidéo appelée Founders Edition a été annoncée, dont le prix est plus élevé que les cartes vidéo habituelles des partenaires de la société. En fait, cette édition est une conception de référence pour la carte et le système de refroidissement, et elle est produite par Nvidia elle-même. Vous pouvez vous intéresser différemment à de telles options pour les cartes vidéo, mais la conception de référence développée par les ingénieurs de l'entreprise et la construction réalisée à l'aide de composants de haute qualité ont leurs fans.

Mais s'ils donneront quelques milliers de roubles de plus pour une carte vidéo de Nvidia elle-même est une question à laquelle on ne peut répondre que par la pratique. Dans tous les cas, au début, ce seront des cartes vidéo de référence de Nvidia à un prix accru qui apparaîtront en vente, et il n'y a pas grand-chose à choisir - cela se produit à chaque annonce, mais la référence GeForce GTX 1080 diffère en ce qu'elle est prévu de le vendre sous cette forme pendant toute sa durée de vie, jusqu'aux solutions de nouvelle génération.

Nvidia estime que cette édition a ses mérites même sur les meilleurs travaux des partenaires. Par exemple, la conception à double fente du refroidisseur facilite l'assemblage sur la base de cette puissante carte vidéo à la fois des PC de jeu d'un facteur de forme relativement petit et des systèmes vidéo multi-puces (même si la société ne recommande pas de fonctionner en trois - et mode quatre puces). La GeForce GTX 1080 Founders Edition présente certains des avantages d'un refroidisseur de chambre à vapeur efficace et d'un ventilateur qui souffle de l'air chaud hors du boîtier, la première solution de ce type de Nvidia à consommer moins de 250 W d'énergie.

Par rapport aux conceptions de produits de référence précédentes de la société, le circuit d'alimentation est passé de quatre phases à cinq phases. Nvidia parle également des composants améliorés sur lesquels le nouveau produit est basé, ainsi que de la réduction du bruit électrique, permettant une stabilité de tension améliorée et un potentiel d'overclocking. À la suite de toutes les améliorations, la carte de référence est 6% plus économe en énergie que la GeForce GTX 980.

Et afin de différer des modèles "normaux" de la GeForce GTX 1080 et extérieurement, un design de boîtier "haché" inhabituel a été développé pour l'édition Founders. Ce qui, cependant, a probablement aussi conduit à la complication de la forme de la chambre d'évaporation et du radiateur (voir photo), qui a peut-être servi comme l'une des raisons du supplément de 100 $ pour une édition aussi spéciale. Répétons qu'au début des ventes, les acheteurs n'auront pas beaucoup de choix, mais qu'à l'avenir ils pourront choisir à la fois une solution avec leur propre design chez l'un des partenaires de l'entreprise, et réalisée par Nvidia elle-même.

La prochaine génération d'architecture graphique Pascal

La GeForce GTX 1080 est la première solution de la société basée sur la puce GP104, qui appartient à la nouvelle génération de l'architecture graphique Pascal de Nvidia. Bien que la nouvelle architecture soit basée sur les solutions élaborées dans Maxwell, elle présente également des différences fonctionnelles importantes, dont nous parlerons plus tard. Le principal changement d'un point de vue global était le nouveau processus technologique, selon lequel le nouveau processeur graphique a été fabriqué.

L'utilisation de la technologie de processus FinFET 16 nm dans la production de processeurs graphiques GP104 dans les usines de la société taïwanaise TSMC a permis d'augmenter considérablement la complexité de la puce tout en conservant une surface et un coût relativement faibles. Comparez le nombre de transistors et la surface des puces GP104 et GM204 - leur surface est proche (la puce de la nouveauté est encore légèrement plus petite physiquement), mais la puce d'architecture Pascal a un nombre de transistors sensiblement plus grand, et, en conséquence, les unités d'exécution, y compris celles offrant de nouvelles fonctionnalités.

D'un point de vue architectural, le premier jeu Pascal est très similaire à des solutions similaires de l'architecture Maxwell, bien qu'il existe quelques différences. Comme Maxwell, les processeurs Pascal auront différentes configurations de clusters de traitement graphique (GPC), de multiprocesseurs de streaming (SM) et de contrôleurs de mémoire. Le multiprocesseur SM est un multiprocesseur hautement parallèle qui programme et exécute des warps (groupes de 32 threads d'instructions) sur des cœurs CUDA et d'autres unités d'exécution dans un multiprocesseur. Vous pouvez trouver des informations détaillées sur la conception de tous ces blocs dans nos revues des solutions précédentes de Nvidia.

Chacun des multiprocesseurs SM est associé au moteur PolyMorph, qui gère l'échantillonnage de texture, la tessellation, la transformation, le réglage des attributs de sommet et la correction de perspective. Contrairement aux solutions précédentes de la société, le moteur PolyMorph de la puce GP104 contient également la nouvelle unité de multi-projection simultanée, dont nous parlerons ci-dessous. La combinaison d'un multiprocesseur SM avec un moteur polymorphe est traditionnellement pour Nvidia appelé TPC - Texture Processor Cluster.

Au total, la puce GP104 de la GeForce GTX 1080 contient quatre clusters GPC et 20 multiprocesseurs SM, ainsi que huit contrôleurs de mémoire combinés à 64 unités ROP. Chaque GPC dispose d'un moteur de rastérisation dédié et comprend cinq multiprocesseurs SM. Chaque multiprocesseur, à son tour, se compose de 128 cœurs CUDA, de 256 Ko de fichier de registre, de 96 Ko de mémoire partagée, de 48 Ko de cache L1 et de huit unités de texture TMU. C'est-à-dire qu'au total, le GP104 contient 2560 cœurs CUDA et 160 TMU.

De plus, le GPU sur lequel est basée la GeForce GTX 1080 contient huit contrôleurs de mémoire 32 bits (par opposition aux 64 bits précédemment utilisés), ce qui nous donne un bus mémoire final de 256 bits. Huit ROP et 256 Ko de cache L2 sont liés à chaque contrôleur de mémoire. C'est-à-dire que la puce GP104 contient 64 ROP et 2048 Ko de cache L2 au total.

Grâce à des optimisations architecturales et à une nouvelle technologie de processus, le premier Pascal de jeu est devenu le GPU le plus économe en énergie de tous les temps. De plus, la contribution à cela provient à la fois de l'un des procédés technologiques les plus avancés du FinFET 16 nm, et des optimisations de l'architecture en Pascal, en comparaison avec Maxwell. Nvidia a pu augmenter la vitesse d'horloge encore plus que prévu lors du passage à la nouvelle technologie de processus. Le GP104 fonctionne à une fréquence plus élevée que l'hypothétique GM204, produit à l'aide de la technologie de processus 16 nm, fonctionnerait. Pour ce faire, les ingénieurs Nvidia ont dû soigneusement vérifier et optimiser tous les goulots d'étranglement des solutions précédentes qui ne permettaient pas l'overclocking au-dessus d'un certain seuil. Par conséquent, nouveau modèle La GeForce GTX 1080 fonctionne plus de 40 % plus vite que la GeForce GTX 980. Mais ce n'est pas tout les changements de fréquence du GPU.

Technologie GPU Boost 3.0

Comme nous le savons bien des précédentes cartes vidéo Nvidia, elles utilisent la technologie matérielle GPU Boost dans leurs GPU, conçue pour augmenter le fonctionnement fréquence d'horloge GPU dans des modes où il n'a pas encore atteint les limites de consommation électrique et de dissipation thermique. Au fil des années, cet algorithme a subi de nombreuses évolutions, et la troisième génération de cette technologie est utilisée dans la puce vidéo à architecture Pascal - GPU Boost 3.0, dont la principale innovation est un réglage plus fin des fréquences turbo, en fonction de la tension.

Si vous rappelez le principe de fonctionnement des versions précédentes de la technologie, alors la différence entre la fréquence de base (valeur de fréquence minimale garantie, en dessous de laquelle le GPU ne tombe pas, du moins dans les jeux) et la fréquence turbo était fixe. C'est-à-dire que la fréquence turbo a toujours été supérieure d'un certain nombre de mégahertz à la fréquence de base. GPU Boost 3.0 introduit la possibilité de définir des décalages de fréquence turbo pour chaque tension séparément. La façon la plus simple de comprendre cela est à partir de l'illustration :

A gauche se trouve GPU Boost de la deuxième version, à droite - la troisième, apparue en Pascal. La différence fixe entre les fréquences de base et turbo ne permettait pas de révéler pleinement les capacités du GPU, dans certains cas, les GPU de la génération précédente pouvaient fonctionner plus rapidement à la tension définie, mais l'excès fixe de la fréquence turbo ne permettait pas de le faire . Dans GPU Boost 3.0, une telle opportunité est apparue, et la fréquence turbo peut être réglée pour chacune des valeurs de tension individuelles, extrayant complètement tout le jus du GPU.

Des utilitaires pratiques sont nécessaires pour contrôler l'overclocking et définir la courbe de fréquence turbo. Nvidia lui-même ne le fait pas, mais il aide ses partenaires à créer de tels utilitaires pour faciliter l'overclocking (dans des limites raisonnables, bien sûr). Par exemple, nouveau Fonctionnalité GPU Boost 3.0 est déjà révélé dans EVGA Precision XOC, qui comprend un scanner d'overclocking dédié qui trouve et définit automatiquement la différence non linéaire entre la fréquence de base et la fréquence turbo pour différentes tensions en exécutant un test de performance et de stabilité intégré. En conséquence, l'utilisateur dispose d'une courbe de fréquence turbo qui correspond idéalement aux capacités d'une puce particulière. Qui, de plus, peut être modifié de n'importe quelle façon en mode manuel.

Comme vous pouvez le voir sur la capture d'écran de l'utilitaire, en plus des informations sur le GPU et le système, il existe également des paramètres pour l'overclocking : Power Target (détermine la consommation d'énergie typique pendant l'overclocking, en pourcentage de la norme), GPU Temp Target (la température centrale maximale autorisée), GPU Clock Offset (dépassement de la fréquence de base pour toutes les tensions), Memory Offset (dépassements de la mémoire vidéo par rapport à la valeur par défaut), Surtension ( opportunité supplémentaire pour augmenter la tension).

L'utilitaire Precision XOC comprend trois modes d'overclocking : Basic Basic, Linear Linear et Manual Manual. Dans le mode principal, vous pouvez définir une seule valeur de survitesse (fréquence turbo fixe) sur celle de base, comme c'était le cas pour les GPU précédents. Le mode linéaire vous permet de régler la fréquence pour passer des valeurs de tension minimales aux valeurs de tension maximales pour le GPU. Eh bien, en mode manuel, vous pouvez définir des valeurs uniques pour la fréquence du GPU pour chaque point de tension sur le graphique.

L'utilitaire comprend également un scanner spécial pour l'overclocking automatique. Vous pouvez soit définir vos propres niveaux de fréquence, soit laisser Precision XOC analyser le GPU à toutes les tensions et trouver les fréquences les plus stables pour chaque point de la courbe de tension et de fréquence de manière entièrement automatique. Au cours du processus de numérisation, Precision XOC ajoute progressivement la fréquence du GPU et vérifie ses performances pour la stabilité ou les artefacts, créant une courbe de fréquence et de tension idéale qui sera unique pour chaque puce.

Ce scanner peut être personnalisé pour répondre à vos propres besoins en définissant l'intervalle de temps pour tester chaque valeur de tension, la fréquence minimale et maximale à tester et son pas. Il est clair que pour obtenir des résultats stables, il serait préférable de définir un petit pas et une durée de test décente. Pendant le test, un fonctionnement instable du pilote vidéo et du système peut être observé, mais si le scanner ne se bloque pas, il rétablira le fonctionnement et continuera à trouver les fréquences optimales.

Nouveau type de mémoire vidéo GDDR5X et compression améliorée

Ainsi, la puissance du GPU a considérablement augmenté et le bus mémoire ne reste que 256 bits - la bande passante mémoire limitera-t-elle les performances globales et que pouvez-vous y faire ? Il semble que la prometteuse mémoire HBM de deuxième génération soit encore trop chère à fabriquer, il a donc fallu chercher d'autres options. Depuis l'introduction de la mémoire GDDR5 en 2009, les ingénieurs Nvidia explorent les possibilités d'utiliser de nouveaux types de mémoire. En conséquence, le développement est venu à la mise en œuvre de la nouvelle norme de mémoire GDDR5X - la norme la plus complexe et la plus avancée à l'heure actuelle, donnant un taux de transfert de 10 Gbps.

Nvidia donne un exemple intéressant de sa rapidité. Seulement 100 picosecondes s'écoulent entre les bits transmis - pendant ce temps, le faisceau de lumière parcourt une distance de seulement un pouce (environ 2,5 cm). Et lors de l'utilisation de la mémoire GDDR5X, les circuits de transmission et de réception de données doivent sélectionner la valeur du bit transmis en moins de la moitié de ce temps, avant que le suivant ne soit envoyé - c'est juste pour que vous compreniez ce que les technologies modernes ont atteint.

Pour atteindre cette vitesse, il a fallu développer une nouvelle architecture pour le système d'E/S de données, ce qui a nécessité plusieurs années de développement conjoint avec les fabricants de puces mémoire. En plus du taux de transfert de données accru, l'efficacité énergétique a également augmenté - les puces mémoire GDDR5X utilisent une tension inférieure de 1,35 V et sont produites à l'aide de nouvelles technologies, ce qui donne la même consommation d'énergie à une fréquence 43 % plus élevée.

Les ingénieurs de l'entreprise ont dû retravailler les lignes de transfert de données entre le cœur du GPU et les puces mémoire, faire plus attention à la prévention de la perte et de la dégradation du signal, de la mémoire au GPU et vice-versa. Ainsi, l'illustration ci-dessus montre le signal capturé sous la forme d'un grand "œil" symétrique, ce qui indique une bonne optimisation de l'ensemble du circuit et la relative facilité de capture des données du signal. De plus, les changements décrits ci-dessus ont non seulement conduit à la possibilité d'utiliser la GDDR5X à 10 GHz, mais devraient également permettre d'obtenir une bande passante mémoire élevée sur les futurs produits utilisant la mémoire GDDR5 plus familière.

Eh bien, nous avons obtenu plus de 40 % du gain de bande passante mémoire en utilisant la nouvelle mémoire. Mais cela ne suffit-il pas ? Pour améliorer encore l'efficacité de la bande passante mémoire, Nvidia a continué d'améliorer la compression de données avancée introduite dans les architectures précédentes. Le sous-système de mémoire de la GeForce GTX 1080 utilise des techniques de compression de données sans perte améliorées et nouvelles conçues pour réduire les besoins en bande passante mémoire - la quatrième génération de compression intégrée.

Les algorithmes de compression de données en mémoire apportent plusieurs avantages à la fois. La compression réduit la quantité de données écrites en mémoire, il en va de même pour les données transférées de la mémoire vidéo vers le cache L2, ce qui améliore l'efficacité du cache L2, car une tuile compressée (un bloc de plusieurs pixels de framebuffer) a une taille plus petite qu'un non compressé. Il réduit également la quantité de données transférées entre différents points, tels que l'unité de texture TMU et le framebuffer.

Le pipeline de compression de données dans le GPU utilise plusieurs algorithmes, qui sont déterminés en fonction de la "compressibilité" des données - le meilleur algorithme disponible est sélectionné pour eux. L'un des plus importants est l'algorithme de compression des couleurs delta. Cette méthode de compression encode les données comme la différence entre des valeurs successives au lieu des données elles-mêmes. Le GPU calcule la différence de valeurs de couleur entre les pixels d'un bloc (tuile) et stocke le bloc sous la forme d'une couleur moyenne pour l'ensemble du bloc ainsi que des données sur la différence de valeurs pour chaque pixel. Pour les données graphiques, cette méthode est généralement bien adaptée, car la couleur dans les petites tuiles pour tous les pixels ne diffère souvent pas trop.

Le GPU GP104 de la GeForce GTX 1080 prend en charge plus d'algorithmes de compression que les puces Maxwell précédentes. Ainsi, l'algorithme de compression 2: 1 est devenu plus efficace, et en plus de cela, deux nouveaux algorithmes sont apparus : un mode de compression 4: 1, adapté aux cas où la différence de valeur de couleur des pixels du bloc est très faible, et un mode 8:1, qui combine la compression constante 4:1 de blocs de 2 × 2 pixels avec une compression delta 2x entre les blocs. Lorsque la compression n'est pas possible du tout, elle n'est pas utilisée.

Cependant, en réalité, ce dernier arrive très rarement. Cela peut être vu à partir des exemples de captures d'écran du jeu Project CARS, qui ont été apportées par Nvidia pour illustrer l'augmentation du taux de compression en Pascal. Dans les illustrations, les tuiles framebuffer que le GPU a pu compresser sont peintes en magenta, et celles sans perte sont restées avec la couleur d'origine (en haut - Maxwell, en bas - Pascal).

Comme vous pouvez le voir, les nouveaux algorithmes de compression dans GP104 fonctionnent en réalité bien mieux que dans Maxwell. Bien que l'ancienne architecture soit également capable de compresser la plupart des tuiles de la scène, beaucoup d'herbe et d'arbres autour des bords, ainsi que des pièces de machine, ne sont pas soumis aux algorithmes de compression hérités. Mais avec l'inclusion de nouvelles techniques dans Pascal, très peu de zones de l'image sont restées non compressées - l'amélioration de l'efficacité est évidente.

Grâce aux améliorations apportées à la compression des données, la GeForce GTX 1080 est capable de réduire considérablement la quantité de données envoyées par image. En termes de chiffres, une compression améliorée permet d'économiser 20 % supplémentaires de bande passante mémoire effective. En plus d'une bande passante mémoire plus de 40 % plus élevée dans la GeForce GTX 1080 par rapport à la GTX 980 grâce à l'utilisation de la mémoire GDDR5X, tout cela ensemble donne une augmentation d'environ 70 % de la bande passante mémoire effective par rapport au modèle de génération précédente.

Prise en charge du calcul asynchrone

La plupart des jeux modernes utilisent des calculs complexes en plus des calculs graphiques. Par exemple, les calculs lors du calcul du comportement des corps physiques peuvent être effectués non pas avant ou après les calculs graphiques, mais simultanément avec eux, car ils ne sont pas liés les uns aux autres et ne dépendent pas les uns des autres dans une image. Un autre exemple est le post-traitement des images déjà rendues et le traitement des données audio, qui peuvent également être effectués en parallèle avec le rendu.

Un autre excellent exemple de l'utilisation de la fonctionnalité est la technique Asynchronous Time Warp utilisée dans les systèmes VR pour modifier l'image rendue pour qu'elle corresponde au mouvement de la tête du joueur juste avant de la rendre, interrompant le rendu suivant. Un tel chargement asynchrone de la puissance du GPU permet d'augmenter l'efficacité d'utilisation de ses unités d'exécution.

De telles charges de travail créent deux nouveaux cas d'utilisation de GPU. Le premier d'entre eux comprend des charges qui se chevauchent, car de nombreux types de tâches n'utilisent pas pleinement les capacités des GPU et certaines ressources sont inactives. Dans de tels cas, vous pouvez simplement exécuter sur un GPU deux tâches différentes qui séparent ses unités d'exécution pour une utilisation plus efficace - par exemple, les effets PhysX qui sont exécutés conjointement avec le rendu d'images 3D.

Pour améliorer les performances de ce scénario, l'équilibrage de charge dynamique a été introduit dans l'architecture Pascal. Dans l'architecture Maxwell précédente, les charges de travail qui se chevauchaient étaient implémentées sous la forme d'une allocation statique de ressources GPU aux graphiques et au calcul. Cette approche est efficace à condition que l'équilibre entre les deux charges de travail corresponde à peu près à la répartition des ressources et que les tâches soient accomplies en même temps. Si les calculs non graphiques prennent plus de temps que les calculs graphiques et que les deux attendent l'achèvement du travail commun, une partie du GPU sera inactive pendant le temps restant, ce qui entraînera une diminution des performances globales et annulera tous les avantages. L'équilibrage de charge dynamique matériel, quant à lui, permet d'utiliser les ressources GPU libérées dès qu'elles deviennent disponibles - voici une illustration pour la compréhension.

Il existe également des tâches critiques pour le temps d'exécution, et c'est le deuxième scénario de calcul asynchrone. Par exemple, l'exécution de l'algorithme de distorsion temporelle asynchrone dans VR doit se terminer avant le scan (scan out) ou la trame sera rejetée. Dans ce cas, le GPU doit supporter une interruption très rapide de la tâche et basculer sur une autre afin de retirer une tâche moins critique de l'exécution sur le GPU, libérant ses ressources pour les tâches critiques - c'est ce qu'on appelle la préemption.

Une seule commande de rendu du moteur de jeu peut contenir des centaines d'appels de dessin, chaque appel de dessin à son tour contient des centaines de triangles traités, chacun contenant des centaines de pixels à calculer et à dessiner. L'approche GPU traditionnelle utilise uniquement une interruption de tâche de haut niveau, et le pipeline graphique doit attendre que tout ce travail soit terminé avant de changer de tâche, ce qui entraîne des latences très élevées.

Pour résoudre ce problème, l'architecture Pascal a été la première à introduire la possibilité d'interrompre la tâche au niveau du pixel - Pixel Level Preemption. Les unités d'exécution du GPU Pascal peuvent surveiller en permanence la progression des tâches de rendu et, lorsqu'une interruption est demandée, elles peuvent arrêter l'exécution, en sauvegardant le contexte pour un achèvement ultérieur en passant rapidement à une autre tâche.

L'interruption et la commutation au niveau du thread pour les opérations de calcul fonctionnent de manière similaire à l'interruption au niveau du pixel pour le calcul graphique. Les charges de travail de calcul se composent de plusieurs grilles, chacune contenant de nombreux threads. Lorsqu'une demande d'interruption est reçue, les threads s'exécutant sur le multiprocesseur terminent l'exécution. D'autres blocs enregistrent leur propre état pour continuer à partir du même point à l'avenir, et le GPU passe à une autre tâche. L'ensemble du processus de changement de tâche prend moins de 100 microsecondes après la fin des threads en cours d'exécution.

Pour les charges de travail de jeu, la combinaison d'interruptions au niveau des pixels pour les graphiques et des interruptions au niveau des threads pour les tâches de calcul donne aux GPU Pascal la possibilité de basculer rapidement entre les tâches avec une perte de temps minimale. Et pour les tâches de calcul sur CUDA, il est également possible d'interrompre avec une granularité minimale - au niveau de l'instruction. Dans ce mode, tous les threads arrêtent immédiatement l'exécution, passant immédiatement à une autre tâche. Cette approche nécessite de stocker plus d'informations sur l'état de tous les registres de chaque thread, mais dans certains cas de calculs non graphiques, cela est tout à fait justifié.

L'utilisation de l'interruption rapide et de la commutation de tâches dans les tâches graphiques et de calcul a été ajoutée à l'architecture Pascal afin que les tâches graphiques et non graphiques puissent être interrompues au niveau des instructions individuelles, plutôt que des threads entiers, comme ce fut le cas dans Maxwell et Kepler . Ces technologies peuvent améliorer l'exécution asynchrone de diverses charges de travail GPU et améliorer la réactivité lors de l'exécution de plusieurs tâches en même temps. Lors de l'événement, Nvidia a montré une démonstration de calcul asynchrone en utilisant l'exemple du calcul des effets physiques. Si sans calculs asynchrones, les performances étaient au niveau de 77-79 FPS, alors avec l'inclusion de ces fonctionnalités, la fréquence d'images est passée à 93-94 FPS.

Nous avons déjà cité en exemple une des possibilités d'utiliser cette fonctionnalité dans les jeux sous forme de distorsion temporelle asynchrone en VR. L'illustration montre comment cette technologie fonctionne avec la préemption et l'interruption rapide. Dans le premier cas, on essaie d'effectuer le processus de distorsion temporelle asynchrone le plus tard possible, mais avant le début de la mise à jour de l'image sur l'affichage. Mais le travail de l'algorithme doit être donné pour exécution dans le GPU quelques millisecondes plus tôt, car sans interruption rapide, il n'y a aucun moyen d'effectuer le travail avec précision au bon moment, et le GPU est inactif pendant un certain temps.

Dans le cas d'interruptions précises au niveau du pixel et du flux (dans l'illustration de droite), cela permet une plus grande précision dans la détermination du moment de l'interruption, et la distorsion temporelle asynchrone peut être déclenchée beaucoup plus tard avec confiance dans l'achèvement des travaux avant le les informations sont mises à jour sur l'écran. Et le GPU qui a été inactif pendant un certain temps dans le premier cas peut être chargé avec un travail graphique supplémentaire.

Technologie de multi-projection simultanée

Le nouveau GPU GP104 ajoute la prise en charge de la nouvelle technologie de multi-projection simultanée (SMP), qui permet au GPU de restituer des données sur systèmes modernes sortie d'image plus efficacement. SMP permet à la puce vidéo de produire simultanément des données dans plusieurs projections, ce qui a nécessité l'introduction d'une nouvelle unité matérielle dans le GPU dans le moteur PolyMorph à la fin du pipeline de géométrie avant l'unité de rastérisation. Ce bloc est chargé de travailler avec plusieurs projections pour un seul flux géométrique.

Le moteur de multi-projection traite les données géométriques simultanément pour 16 projections pré-configurées qui combinent un point de projection (caméra), ces projections peuvent être indépendamment tournées ou inclinées. Étant donné que chaque primitive de géométrie peut apparaître simultanément dans plusieurs projections, le moteur SMP fournit cette fonctionnalité, permettant à une application de demander au GPU de répliquer la géométrie jusqu'à 32 fois (16 projections sur deux centres de projection) sans traitement supplémentaire.

L'ensemble du processus de traitement est accéléré par le matériel et, comme la multiprojection fonctionne après le moteur géométrique, il n'est pas nécessaire de répéter plusieurs fois toutes les étapes du traitement de la géométrie. Les ressources économisées sont importantes lorsque la vitesse de rendu est limitée par les performances de traitement de la géométrie, telles que la tessellation, où le même travail de géométrie est effectué plusieurs fois pour chaque projection. En conséquence, à son apogée, la multi-projection peut réduire jusqu'à 32 fois le besoin de traitement de la géométrie.

Mais pourquoi tout cela est-il nécessaire ? Il existe de bons exemples où la technologie de multi-projection peut être utile. Par exemple, un système multi-écrans de trois écrans montés à un angle les uns par rapport aux autres suffisamment proches de l'utilisateur (configuration surround). Dans une situation typique, la scène est rendue en une seule projection, ce qui entraîne une distorsion géométrique et un rendu incorrect de la géométrie. La bonne façon est d'avoir trois projections différentes pour chacun des moniteurs, en fonction de l'angle auquel ils sont positionnés.

A l'aide d'une carte vidéo sur puce à architecture Pascal, cela peut être fait en une seule passe géométrique, en spécifiant trois projections différentes, chacune pour son propre moniteur. Et l'utilisateur pourra ainsi modifier l'angle auquel les moniteurs sont situés les uns par rapport aux autres, non seulement physiquement, mais aussi virtuellement - en faisant pivoter les projections des moniteurs latéraux afin d'obtenir la bonne perspective dans la scène 3D. avec un angle de vision (FOV) sensiblement plus large. Cependant, il existe une limitation - pour une telle prise en charge, l'application doit être capable de restituer une scène avec un large champ de vision et d'utiliser des appels API SMP spéciaux pour la configurer. C'est-à-dire que vous ne pouvez pas faire cela dans chaque jeu, vous avez besoin d'un soutien spécial.

Dans tous les cas, l'époque d'une projection sur un seul moniteur à écran plat est révolue, il existe désormais de nombreuses configurations multi-écrans et des écrans incurvés qui peuvent également utiliser cette technologie. Sans parler des systèmes de réalité virtuelle qui utilisent des lentilles spéciales entre les écrans et les yeux de l'utilisateur, ce qui nécessite de nouvelles techniques pour projeter une image 3D dans une image 2D. Beaucoup de ces technologies et techniques sont encore au début du développement, l'essentiel est que les anciens GPU ne peuvent pas utiliser efficacement plus d'une projection plane. Ils nécessitent plusieurs passes de rendu, plusieurs traitements de la même géométrie, etc.

Les puces Maxwell avaient une prise en charge limitée de la multi-résolution pour aider à augmenter l'efficacité, mais le SMP de Pascal peut faire beaucoup plus. Maxwell pouvait faire pivoter la projection de 90 degrés pour le mappage de cubes ou différentes résolutions de projection, mais cela n'était utile que dans un nombre limité d'applications comme VXGI.

D'autres possibilités d'utilisation du SMP incluent le rendu avec différentes résolutions et le rendu stéréo en un seul passage. Par exemple, Multi-Res Shading peut être utilisé dans les jeux pour optimiser les performances. Lorsqu'elle est appliquée, une résolution plus élevée est utilisée au centre du cadre, et à la périphérie elle est réduite pour obtenir une vitesse de rendu plus élevée.

Le rendu stéréo en une seule passe est utilisé en VR et a déjà été ajouté à VRWorks et utilise la capacité de multi-projection pour réduire la quantité de travail de géométrie requis pour le rendu VR. Dans le cas de l'utilisation de cette fonctionnalité, le processeur graphique GeForce GTX 1080 ne traite la géométrie de la scène qu'une seule fois, générant deux projections pour chaque œil à la fois, ce qui réduit de moitié la charge géométrique sur le GPU et réduit également les pertes du pilote et du système d'exploitation.

Une technique encore plus avancée pour augmenter l'efficacité du rendu VR est Lens Matched Shading, où plusieurs projections simulent la distorsion géométrique requise pour le rendu VR. Cette méthode utilise la multi-projection pour restituer une scène 3D sur une surface qui est à peu près similaire à l'objectif corrigé lors du rendu pour la sortie vers un casque VR, évitant ainsi de nombreux pixels inutiles sur la périphérie qui seront supprimés. Le moyen le plus simple de comprendre l'essence de la méthode est par l'illustration - devant chaque œil, quatre projections légèrement dépliées sont utilisées (en Pascal, vous pouvez utiliser 16 projections pour chaque œil - pour une imitation plus précise d'une lentille incurvée) à la place d'un:

Cette approche permet d'économiser beaucoup de performances. Ainsi, une image typique pour l'Oculus Rift est de 1,1 mégapixels par œil. Mais en raison de la différence de projections, l'image originale de 2,1 mégapixels est utilisée pour le rendu - 86 % de plus que nécessaire ! L'utilisation de la multi-projection, implémentée dans l'architecture Pascal, vous permet de réduire la résolution de l'image rendue à 1,4 mégapixels, en obtenant une économie d'une fois et demie la vitesse de traitement des pixels, et économise également de la bande passante mémoire.

Et avec une double réduction de la vitesse de traitement de la géométrie grâce au rendu stéréo monopasse, le processeur graphique de la carte vidéo GeForce GTX 1080 est capable d'augmenter considérablement les performances du rendu VR, qui est très exigeant en termes de de la vitesse de traitement de la géométrie, et plus encore - du traitement des pixels.

Améliorations des blocs de sortie et du traitement des données vidéo

Outre les performances et les nouvelles fonctionnalités liées au rendu 3D, les capacités de sortie d'image et de décodage et d'encodage vidéo doivent également être maintenues à un bon niveau. Et le premier GPU de l'architecture Pascal n'a pas déçu - il prend en charge toutes les normes modernes en ce sens, y compris le décodage matériel du format HEVC requis pour regarder des vidéos 4K sur un PC. De plus, les futurs propriétaires de cartes graphiques GeForce GTX 1080 pourront bientôt profiter du streaming vidéo 4K de Netflix et d'autres fournisseurs sur leurs systèmes.

En termes de sortie d'affichage, la GeForce GTX 1080 prend en charge HDMI 2.0b avec HDCP 2.2 ainsi que DisplayPort. Jusqu'à présent, DP 1.2 a été certifié, mais le GPU est prêt pour la certification des nouvelles versions de la norme : DP 1.3 Ready et DP 1.4 Ready. Ce dernier permet d'afficher des images sur des écrans 4K à 120 Hz, et sur des écrans 5K et 8K à 60 Hz à l'aide d'une paire de câbles DisplayPort 1.3. Si pour la GTX 980 la résolution maximale prise en charge était de 5120 × 3200 à 60 Hz, alors pour la nouvelle GTX 1080, elle est passée à 7680 × 4320 au même 60 Hz. La référence GeForce GTX 1080 possède trois sorties DisplayPort, une HDMI 2.0b et une numérique Dual-Link DVI.

Le nouveau modèle de carte vidéo Nvidia a également reçu une unité améliorée pour le décodage et l'encodage des données vidéo. Par exemple, la puce GP104 répond aux normes élevées de PlayReady 3.0 (SL3000) pour le streaming vidéo, garantissant que le contenu de haute qualité de fournisseurs renommés tels que Netflix est lu avec la plus haute qualité et efficacité énergétique. Les détails sur la prise en charge de divers formats vidéo lors de l'encodage et du décodage sont donnés dans le tableau, le nouveau produit diffère clairement des solutions précédentes pour le mieux :

Mais une nouveauté encore plus intéressante peut être appelée la prise en charge des écrans dits à plage dynamique élevée (HDR), qui sont sur le point de se généraliser sur le marché. Les téléviseurs sont en vente en 2016 (avec quatre millions de téléviseurs HDR qui devraient être vendus dans un an seulement) et les moniteurs l'année prochaine. Le HDR est la plus grande percée dans la technologie d'affichage depuis des années, offrant le double des tons de couleur (75 % du spectre visible contre 33 % pour le RVB), des écrans plus lumineux (1 000 nits) avec un contraste plus élevé (10 000 : 1) et des couleurs riches.

L'émergence de la capacité de reproduire du contenu avec une plus grande différence de luminosité et des couleurs plus riches et plus saturées rapprochera l'image à l'écran de la réalité, les noirs deviendront plus profonds et la lumière vive éblouira, comme dans le monde réel. Par conséquent, les utilisateurs verront plus de détails dans les zones claires et sombres des images par rapport aux moniteurs et téléviseurs standard.

Pour prendre en charge les écrans HDR, la GeForce GTX 1080 a tout ce dont vous avez besoin - la possibilité de produire des couleurs 12 bits, la prise en charge des normes BT.2020 et SMPTE 2084 et une sortie d'image conforme à la norme HDMI 2.0b 10/12 bits pour HDR en résolution 4K, que Maxwell avait. En plus de cela, Pascal ajoute la prise en charge du décodage du format HEVC en résolution 4K à 60 Hz et couleur 10 ou 12 bits, qui est utilisé pour la vidéo HDR, ainsi que l'encodage du même format avec les mêmes paramètres, mais uniquement en 10 bits pour l'enregistrement ou le streaming vidéo HDR. De plus, la nouveauté est prête pour la normalisation DisplayPort 1.4 pour la transmission de données HDR sur ce connecteur.

Soit dit en passant, l'encodage vidéo HDR pourrait être nécessaire à l'avenir pour transférer ces données d'un PC domestique vers une console de jeu SHIELD pouvant lire HEVC 10 bits. C'est-à-dire que l'utilisateur pourra diffuser le jeu depuis un PC au format HDR. Arrêtez, où puis-je obtenir des jeux avec un tel support ? Nvidia travaille en permanence avec les développeurs de jeux pour mettre en œuvre cette prise en charge, en leur fournissant tout ce dont ils ont besoin (prise en charge de pilotes, exemples de code, etc.) pour restituer correctement les images HDR, compatibles avec les écrans existants.

Au moment de la sortie de la carte vidéo, la GeForce GTX 1080, la sortie HDR est prise en charge par des jeux tels que Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle et Shadow Warrior 2. Mais cette liste devrait être ajouté dans un proche avenir. ...

Modifications apportées au rendu SLI multi-puces

Il y a également eu quelques changements liés à la technologie de rendu multi-GPU SLI propriétaire, bien que personne ne s'y attende. Le SLI est utilisé par les passionnés de jeux sur PC afin d'augmenter les performances soit à des valeurs extrêmes en installant en tandem les cartes vidéo à puce unique les plus puissantes, soit pour obtenir des fréquences d'images très élevées, en se limitant à quelques solutions de milieu de gamme, qui coûtent parfois moins qu'un haut de gamme (la décision est controversée, mais ils le font). Avec les moniteurs 4K, les joueurs n'ont presque pas d'autre choix que d'installer une paire de cartes vidéo, car même les modèles haut de gamme ne peuvent souvent pas fournir un jeu confortable avec des réglages maximum dans de telles conditions.

L'un des composants importants de Nvidia SLI sont les ponts qui connectent les cartes vidéo dans un sous-système vidéo commun et servent à organiser un canal numérique pour transférer des données entre elles. Traditionnellement, les cartes graphiques GeForce avaient des connecteurs SLI doubles, qui étaient utilisés pour connecter deux ou quatre cartes vidéo dans des configurations SLI à 3 et 4 voies. Chacune des cartes vidéo devait être connectée à chacune, car tous les GPU envoyaient les images qu'ils restituaient au GPU principal, donc deux interfaces étaient nécessaires sur chacune des cartes.

À commencer par GeForce GTX 1080, pour tous Cartes graphiques Nvidia basé sur l'architecture Pascal, les deux SLI sont liés pour améliorer les performances de transfert de données entre les cartes graphiques, et ce nouveau mode SLI double canal améliore les performances et le confort lors de l'affichage d'informations visuelles sur des écrans à très haute résolution ou des systèmes multi-écrans.

Pour un tel mode, de nouveaux ponts étaient également nécessaires, appelés SLI HB. Ils combinent une paire de cartes graphiques GeForce GTX 1080 sur deux canaux SLI à la fois, bien que les nouvelles cartes graphiques soient également compatibles avec les anciens ponts. Pour des résolutions de 1920 × 1080 et 2560 × 1440 pixels à un taux de rafraîchissement de 60 Hz, vous pouvez utiliser des ponts standard, mais dans des modes plus exigeants (4K, 5K et systèmes multi-écrans), seuls les nouveaux ponts offriront de meilleurs résultats en termes de la douceur des changements de cadre, bien que les anciens fonctionnent, mais un peu pire.

De plus, lors de l'utilisation de ponts SLI HB, l'interface de données GeForce GTX 1080 fonctionne à 650 MHz, contre 400 MHz pour les ponts SLI conventionnels sur les anciens GPU. De plus, pour certains des vieux ponts durs, une fréquence de transmission de données plus élevée avec des puces vidéo de l'architecture Pascal est également disponible. Avec une augmentation du taux de transfert de données entre les GPU via l'interface SLI doublée avec une fréquence de fonctionnement accrue, un affichage des images plus fluide est fourni par rapport aux solutions précédentes :

Il convient également de noter que la prise en charge du rendu multi-GPU dans DirectX 12 est quelque peu différente de ce qui était habituel auparavant. Dans la dernière version de l'API graphique, Microsoft a apporté de nombreux changements liés au fonctionnement de ces systèmes vidéo. Les développeurs de logiciels DX12 ont deux options pour utiliser plusieurs GPU : les modes Multi Display Adapter (MDA) et Linked Display Adapter (LDA).

De plus, le mode LDA a deux formes : LDA implicite (que Nvidia utilise pour le SLI) et LDA explicite (lorsque le développeur du jeu prend en charge les tâches de gestion du rendu multi-puces. Les modes MDA et LDA explicites viennent d'être implémentés dans DirectX 12 afin pour fournir aux développeurs de jeux plus de liberté et d'options lors de l'utilisation de systèmes vidéo multi-puces. La différence entre les modes est clairement visible dans le tableau suivant :

En mode LDA, la mémoire de chaque GPU peut être liée à la mémoire d'un autre et affichée sous forme de volume total important, bien entendu, avec toutes les contraintes de performances lorsque des données sont récupérées de la mémoire « étrangère ». En mode MDA, la mémoire de chaque GPU fonctionne séparément et différents GPU ne peuvent pas accéder directement aux données de la mémoire d'un autre GPU. Le mode LDA est conçu pour des systèmes multipuces aux performances similaires, tandis que le mode MDA a moins de restrictions et que des GPU discrets et intégrés ou des solutions discrètes avec des puces de différents fabricants peuvent fonctionner ensemble. Mais ce mode nécessite également plus d'attention et de travail de la part des développeurs lors de la programmation de la collaboration afin que les GPU puissent communiquer entre eux.

Par défaut, un système SLI basé sur des cartes GeForce GTX 1080 ne prend en charge que deux GPU, et les configurations à trois et quatre puces ne sont pas officiellement recommandées, car il devient plus difficile de fournir des gains de performances dans les jeux modernes à partir de l'ajout d'un troisième et quatrième GPU. Par exemple, de nombreux jeux se heurtent aux capacités du processeur central du système lors de l'exploitation de systèmes vidéo multi-puces, et les nouveaux jeux utilisent de plus en plus des techniques temporelles (temporaires) qui utilisent les données des images précédentes, dans lesquelles le fonctionnement efficace de plusieurs GPU est tout simplement impossible.

Cependant, le fonctionnement de systèmes dans d'autres systèmes multi-puces (non SLI) reste possible, comme les modes explicites MDA ou LDA dans DirectX 12 ou un système SLI à deux puces avec un troisième GPU dédié pour les effets physiques PhysX. Mais qu'en est-il des records dans les benchmarks, Nvidia les refuse-t-il vraiment complètement ? Non, bien sûr, mais comme de tels systèmes sont demandés dans le monde par presque quelques utilisateurs, pour ces ultra-passionnés, ils ont proposé une clé spéciale Enthusiast, qui peut être téléchargée sur le site Web de Nvidia et débloquer cette fonctionnalité. Pour ce faire, vous devez d'abord obtenir un identifiant GPU unique en lançant une application spéciale, puis demander la clé Enthusiast sur le site Web et après l'avoir téléchargée, installer la clé dans le système, déverrouillant ainsi le SLI 3-Way et 4-Way configuration.

Technologie de synchronisation rapide

Certains changements ont eu lieu dans les technologies de synchronisation lors de l'affichage des informations sur l'écran. Pour l'avenir, il n'y a rien de nouveau dans G-Sync, et la technologie Adaptive Sync n'est pas non plus prise en charge. Mais Nvidia a décidé d'améliorer la fluidité de la sortie et de la synchronisation pour les jeux qui affichent des performances très élevées lorsque la fréquence d'images est nettement supérieure à la fréquence de rafraîchissement du moniteur. Ceci est particulièrement important pour les jeux qui nécessitent une latence minimale et une réponse rapide, et dans lesquels se déroulent des batailles et des compétitions multijoueurs.

Fast Sync est une nouvelle alternative de synchronisation verticale qui n'a pas les artefacts visuels de déchirure d'image dans l'image et n'est pas liée à un taux de rafraîchissement fixe, ce qui augmente la latence. Quel est le problème avec la synchronisation verticale dans des jeux comme Counter-Strike : Global Offensive ? Ce jeu fonctionne sur de puissants GPU modernes à plusieurs centaines d'images par seconde, et le joueur a le choix : activer ou non la synchronisation verticale.

Dans les jeux multijoueurs, les utilisateurs recherchent le plus souvent une latence minimale et désactivent VSync, obtenant des déchirures clairement visibles dans l'image, qui sont extrêmement désagréables même à des fréquences d'images élevées. Si vous activez la synchronisation verticale, le joueur subira une augmentation significative des délais entre ses actions et l'image à l'écran lorsque le pipeline graphique ralentira jusqu'à la fréquence de rafraîchissement du moniteur.

C'est ainsi que fonctionne un convoyeur traditionnel. Mais Nvidia a décidé de séparer le processus de rendu et d'affichage en utilisant la technologie Fast Sync. Cela permet à la partie du GPU qui rend les images à pleine vitesse de continuer à fonctionner aussi efficacement que possible, en stockant ces images dans un tampon temporaire spécial appelé Last Rendered Buffer.

Cette méthode vous permet de changer la méthode d'affichage et de tirer le meilleur parti des modes VSync On et VSync Off, avec une faible latence, mais sans artefacts d'image. Avec Fast Sync, il n'y a pas de contrôle de flux d'images, le moteur de jeu fonctionne en mode désynchronisé et n'est pas invité à attendre que le suivant soit dessiné, donc les retards sont presque aussi faibles qu'en mode VSync Off. Mais étant donné que Fast Sync sélectionne indépendamment le tampon pour l'affichage et affiche l'intégralité de l'image, il n'y a pas non plus de rupture d'image.

Fast Sync utilise trois tampons différents, dont les deux premiers fonctionnent de la même manière que le double tampon dans un pipeline classique. Le tampon principal (Front Buffer - FB) est un tampon à partir duquel les informations sont affichées à l'écran, une image entièrement rendue. Le Back Buffer (BB) est le tampon dans lequel les informations sont reçues pendant le rendu.

Lors de l'utilisation de la synchronisation verticale dans un environnement à fréquence d'images élevée, le jeu attend que l'intervalle de rafraîchissement soit atteint afin d'échanger le tampon principal avec le tampon secondaire pour afficher l'intégralité de l'image à l'écran. Cela ralentit le processus et l'ajout de tampons supplémentaires comme le triple tampon traditionnel ne fera qu'ajouter de la latence.

Fast Sync ajoute un troisième dernier tampon rendu (LRB) qui est utilisé pour contenir toutes les images qui viennent d'être rendues dans le tampon arrière. Le nom du tampon parle de lui-même ; il contient une copie de la dernière image entièrement rendue. Et quand vient le moment de mettre à jour le buffer primaire, ce buffer LRB est copié dans le primaire dans son ensemble, et non par parties, à partir du secondaire lorsque la synchronisation verticale est désactivée. Comme la copie des informations des tampons est inefficace, ils changent simplement de place (ou renomment, comme cela sera plus pratique à comprendre), et la nouvelle logique de changement de tampon, apparue dans GP104, contrôle ce processus.

En pratique, l'activation de la nouvelle méthode de synchronisation Fast Sync offre toujours un délai légèrement plus élevé, par rapport à la synchronisation verticale complètement désactivée - en moyenne, 8 ms de plus, mais affiche les images entières sur le moniteur, sans artefacts désagréables sur l'écran, déchirant le image. La nouvelle méthode peut être activée à partir des paramètres graphiques du panneau de configuration Nvidia sous la section de contrôle de la synchronisation verticale. Cependant, la valeur par défaut est le contrôle des applications, et vous n'avez tout simplement pas besoin d'activer la synchronisation rapide dans toutes les applications 3D, il est préférable de choisir cette méthode spécifiquement pour les jeux avec des FPS élevés.

Technologies de réalité virtuelle Nvidia VRWorks

Nous avons déjà abordé plus d'une fois le sujet brûlant de la réalité virtuelle dans cet article, mais il s'agissait principalement d'augmenter la fréquence d'images et d'assurer une faible latence, ce qui est très important pour la VR. Tout cela est très important et il y a effectivement des progrès, mais jusqu'à présent, les jeux VR semblent loin d'être aussi impressionnants que le meilleur des jeux 3D modernes "normaux". Cela se produit non seulement parce que les principaux développeurs de jeux ne sont pas encore particulièrement engagés dans les applications VR, mais aussi en raison des exigences plus élevées de la VR sur la fréquence d'images, ce qui empêche l'utilisation de nombreuses techniques habituelles dans de tels jeux en raison des exigences élevées. .

Afin de réduire la différence de qualité entre les jeux VR et les jeux classiques, Nvidia a décidé de publier un ensemble complet de technologies VRWorks correspondantes, qui comprenaient un grand nombre d'API, de bibliothèques, de moteurs et de technologies pouvant améliorer considérablement la qualité et les performances de la VR. .applications. Quel est le rapport avec l'annonce de la première solution de jeu en Pascal ? C'est très simple - certaines technologies y ont été introduites qui aident à augmenter la productivité et à améliorer la qualité, et nous avons déjà écrit à leur sujet.

Et bien que la question ne concerne pas seulement les graphiques, nous allons d'abord vous en parler un peu. L'ensemble des technologies VRWorks Graphics comprend les technologies mentionnées précédemment, telles que Lens Matched Shading, qui utilisent la fonction de multi-projection apparue dans la GeForce GTX 1080. Le nouveau produit vous permet d'obtenir une augmentation des performances de 1,5 à 2 fois par rapport à des solutions qui ne bénéficient pas d'un tel soutien. Nous avons également mentionné d'autres technologies, telles que le MultiRes Shading, qui est conçu pour rendre à différentes résolutions au centre du cadre et à sa périphérie.

Mais beaucoup plus inattendu a été l'annonce de la technologie VRWorks Audio, conçue pour un traitement de haute qualité des données audio dans les scènes 3D, ce qui est particulièrement important dans les systèmes de réalité virtuelle. Dans les moteurs conventionnels, le positionnement des sources sonores dans un environnement virtuel est calculé assez correctement, si l'ennemi tire de la droite, alors le son est entendu plus fort de ce côté du système audio, et ce calcul n'est pas trop gourmand en puissance de calcul .

Mais en réalité, les sons ne vont pas seulement au joueur, mais dans toutes les directions et sont réfléchis par divers matériaux, de la même manière que les rayons lumineux sont réfléchis. Et en réalité, nous entendons ces réflexions, mais pas aussi clairement que les ondes sonores directes. Ces réflexions sonores indirectes sont généralement simulées par des effets de réverbération spéciaux, mais il s'agit d'une approche très primitive de la tâche.

VRWorks Audio utilise le rendu des ondes sonores de la même manière que le lancer de rayons dans le rendu, où le chemin des rayons lumineux est tracé vers plusieurs réflexions d'objets dans la scène virtuelle. VRWorks Audio simule également la propagation des ondes sonores dans l'environnement, où les ondes directes et réfléchies sont suivies, en fonction de l'angle d'incidence et des propriétés des matériaux réfléchissants. Dans son travail, VRWorks Audio utilise le moteur de lancer de rayons hautes performances Nvidia OptiX, connu pour les tâches graphiques. OptiX peut être utilisé pour une variété de tâches telles que le calcul de l'éclairage indirect et la préparation de lightmaps, et maintenant pour tracer les ondes sonores dans VRWorks Audio.

Nvidia a intégré un comptage précis des ondes sonores dans sa démo VR Funhouse, qui utilise des milliers de faisceaux et calcule jusqu'à 12 réflexions d'objets. Et afin d'apprendre les avantages de la technologie à l'aide d'un exemple clair, nous vous suggérons de regarder une vidéo sur le fonctionnement de la technologie en russe :

Il est important que l'approche de Nvidia diffère des moteurs de son traditionnels, y compris la méthode d'accélération matérielle utilisant un bloc spécial dans le GPU du principal concurrent. Toutes ces méthodes ne fournissent qu'un positionnement précis des sources sonores, mais ne calculent pas les réflexions des ondes sonores des objets dans une scène 3D, bien qu'elles puissent simuler cela en utilisant l'effet de réverbération. Et pourtant, l'utilisation de la technologie de lancer de rayons peut être beaucoup plus réaliste, car seule cette approche fournira une imitation précise de divers sons, en tenant compte de la taille, de la forme et des matériaux des objets de la scène. Il est difficile de dire si une telle précision des calculs est requise pour un joueur typique, mais nous pouvons le dire avec certitude : en VR, cela peut ajouter aux utilisateurs le même réalisme qui manque encore aux jeux réguliers.

Eh bien, nous n'avons qu'à vous parler de la technologie VR SLI, qui fonctionne à la fois en OpenGL et en DirectX. Son principe est extrêmement simple : un système vidéo biprocesseur dans une application VR fonctionnera de manière à ce qu'un GPU distinct soit alloué à chaque œil, contrairement au rendu AFR, habituel pour les configurations SLI. Cela améliore considérablement les performances globales si importantes pour les systèmes de réalité virtuelle. En théorie, plus de GPU peuvent être utilisés, mais leur nombre devrait être pair.

Cette approche était nécessaire car l'AFR n'est pas bien adapté à la VR, car avec son aide, le premier GPU rendra une image paire pour les deux yeux, et la seconde - une image impaire, ce qui ne réduit en aucun cas les latences critiques. pour les systèmes de réalité virtuelle. Bien que la fréquence d'images soit assez élevée. Ainsi, avec l'aide de VR SLI, le travail sur chaque image est divisé en deux GPU - l'un travaille sur une partie du cadre pour l'œil gauche, l'autre pour le droit, puis ces moitiés du cadre sont combinées en un tout.

Cette division du travail entre une paire de GPU apporte près de 2 fois le gain de performances, permettant des fréquences d'images plus élevées et une latence plus faible que les systèmes à GPU unique. Cependant, l'utilisation de VR SLI nécessite une prise en charge spéciale de l'application afin d'utiliser cette méthode de mise à l'échelle. Mais la technologie VR SLI est déjà intégrée dans des applications de démonstration VR telles que The Lab de Valve et Trials on Tatooine d'ILMxLAB, et ce n'est que le début - Nvidia promet l'apparition imminente d'autres applications, ainsi que l'introduction de la technologie dans les moteurs de jeu. Unreal Engine 4, Unity et MaxPlay.

Plateforme de capture d'écran du jeu Ansel

L'une des annonces les plus intéressantes concernant les logiciels a été la sortie d'une technologie permettant de capturer des captures d'écran de haute qualité dans les applications de jeu, du nom d'un célèbre photographe - Ansel. Les jeux sont depuis longtemps devenus non seulement des jeux, mais aussi un lieu où des mains coquines sont utilisées par divers individus créatifs. Quelqu'un modifie les scripts pour les jeux, quelqu'un publie des ensembles de textures de haute qualité pour les jeux et quelqu'un fait de belles captures d'écran.

Nvidia a décidé d'aider ce dernier en introduisant une nouvelle plateforme de création (à savoir la création, car ce n'est pas un processus si facile) images de haute qualité des jeux. Ils croient qu'Ansel peut aider à créer un nouveau type d'art contemporain. Après tout, il y a déjà pas mal d'artistes qui passent la majeure partie de leur vie sur PC, créant de belles captures d'écran à partir de jeux, et ils n'avaient toujours pas d'outil pratique pour cela.

Ansel vous permet non seulement de capturer l'image dans le jeu, mais aussi de la modifier selon les besoins du créateur. Avec cette technologie, vous pouvez déplacer la caméra autour de la scène, la faire pivoter et l'incliner dans n'importe quelle direction afin d'obtenir la composition souhaitée du cadre. Par exemple, dans des jeux tels que les jeux de tir à la première personne, vous ne pouvez déplacer que le joueur, rien d'autre ne peut être beaucoup changé, donc toutes les captures d'écran sont assez monotones. Avec une caméra gratuite dans Ansel, vous pouvez aller bien au-delà de la caméra de jeu, en choisissant l'angle nécessaire pour une image réussie, ou même capturer une image stéréo complète à 360 degrés à partir du point requis, et en haute résolution pour une visualisation ultérieure dans un casque VR.

Ansel fonctionne assez simplement - en utilisant une bibliothèque spéciale de Nvidia, cette plate-forme est intégrée dans le code du jeu. Pour ce faire, son développeur n'a qu'à ajouter un petit bout de code à son projet pour permettre au pilote vidéo Nvidia d'intercepter les données des buffers et shaders. Il y a très peu de travail là-bas, l'implémentation d'Ansel dans le jeu prend moins d'une journée à implémenter. Ainsi, l'inclusion de cette fonctionnalité dans le jeu The Witness a pris environ 40 lignes de code, et dans The Witcher 3 - environ 150 lignes de code.

Ansel apparaîtra avec un package de développement ouvert - SDK. L'essentiel est que l'utilisateur reçoive avec lui un ensemble standard de paramètres qui lui permettent de modifier la position et l'angle de la caméra, d'ajouter des effets, etc. juste un panorama d'une résolution énorme.

Seul bémol : tous les jeux ne seront pas pris en charge pour toutes les fonctionnalités de la plate-forme de capture d'écran du jeu Ansel. Certains développeurs de jeux, pour une raison ou une autre, ne souhaitent pas inclure une caméra entièrement gratuite dans leurs jeux - par exemple, en raison de la possibilité d'utiliser cette fonctionnalité par des tricheurs. Ou ils veulent restreindre le changement d'angle de vue pour la même raison - afin que personne n'obtienne un avantage injuste. Eh bien, ou pour que les utilisateurs ne voient pas les sprites misérables en arrière-plan. Ce sont tous des désirs tout à fait normaux des créateurs de jeux.

L'une des fonctionnalités les plus intéressantes d'Ansel est la création de captures d'écran d'une résolution énorme. Peu importe que le jeu prenne en charge des résolutions jusqu'à 4K, par exemple, et que le moniteur de l'utilisateur soit en Full HD. Avec l'aide de la plate-forme de capture d'écran, vous pouvez capturer une image de bien meilleure qualité, plutôt limitée par le volume et les performances du lecteur. La plate-forme capture facilement des captures d'écran jusqu'à 4,5 gigapixels, assemblées à partir de 3600 pièces !

Il est clair que dans de telles images, vous pouvez voir tous les détails, jusqu'au texte sur les journaux se trouvant au loin, si un tel niveau de détail est, en principe, fourni dans le jeu - Ansel est capable de contrôler le niveau de détail, en définissant le niveau maximum pour obtenir meilleure qualité Des photos. Mais vous pouvez également activer le suréchantillonnage. Tout cela vous permet de créer des images à partir de jeux que vous pouvez imprimer en toute sécurité sur de grandes bannières et d'être calme sur leur qualité.

Fait intéressant, un code accéléré matériel spécial basé sur CUDA est utilisé pour assembler de grandes images. Après tout, aucune carte vidéo ne peut restituer une image multi-gigapixels dans son intégralité, mais elle peut le faire par morceaux, qu'il vous suffit de combiner plus tard, en tenant compte de la différence possible d'éclairage, de couleur, etc.

Après avoir assemblé de tels panoramas, un post-traitement spécial est utilisé pour l'ensemble du cadre, également accéléré sur le GPU. Et pour capturer des images à plage dynamique élevée, vous pouvez utiliser un format d'image spécial - EXR, un standard ouvert d'Industrial Light and Magic, dont les valeurs de chrominance dans chaque canal sont enregistrées au format à virgule flottante 16 bits (FP16).

Ce format vous permet de modifier la luminosité et la plage dynamique du post-traitement de l'image, en l'amenant à la valeur souhaitée pour chaque affichage spécifique, de la même manière que cela se fait avec les formats RAW des appareils photo. Et pour l'application ultérieure de filtres de post-traitement dans les programmes de traitement d'images, ce format est très utile, car il contient beaucoup plus de données que les formats habituels pour les images.

Mais la plateforme Ansel elle-même contient de nombreux filtres pour le post-traitement, ce qui est particulièrement important car elle a accès non seulement à l'image finale, mais aussi à tous les buffers utilisés par le jeu pour le rendu, qui peuvent être utilisés pour des effets très intéressants, comme la profondeur de champ. Pour ce faire, Ansel dispose d'une API dédiée au post-traitement, et tous les effets peuvent être inclus dans un jeu prenant en charge cette plate-forme.

Les post-filtres Ansel incluent des filtres tels que : courbes de couleur, espace colorimétrique, transformation, désaturation, luminosité/contraste, grain du film, floraison, reflet de l'objectif, reflet anamorphique, distorsion, bruyère, fisheye, aberration de couleur, mappage des tons, saleté de l'objectif, puits de lumière, vignette, correction gamma, convolution, netteté, détection des contours, flou, sépia, débruitage, FXAA et autres.

Quant à l'apparition du support Ansel dans les jeux, il faudra alors patienter un peu pendant que les développeurs l'implémentent et le testent. Mais Nvidia promet qu'un tel soutien apparaîtra bientôt dans des jeux aussi célèbres que The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament et autres.

Le nouveau processus technologique FinFET 16 nm et les optimisations d'architecture ont permis à la carte graphique GeForce GTX 1080 basée sur le GPU GP104 d'atteindre une vitesse d'horloge élevée de 1,6 à 1,7 GHz même sous la forme de référence, et une nouvelle génération garantit un fonctionnement aux fréquences les plus élevées possibles. dans les jeux. Technologie GPU Boost. Conjuguées à l'augmentation du nombre d'unités d'exécution, ces améliorations ont fait du nouveau produit non seulement la carte vidéo monopuce la plus performante de tous les temps, mais également la solution la plus écoénergétique du marché.

La GeForce GTX 1080 est la première carte graphique à intégrer un nouveau type de mémoire graphique GDDR5X, une nouvelle génération de puces haute vitesse qui permettent d'atteindre des taux de transfert de données très élevés. Dans le cas de la modification GeForce GTX 1080, ce type de mémoire fonctionne à une fréquence effective de 10 GHz. Combiné à des algorithmes améliorés pour compresser les informations dans le framebuffer, cela a conduit à une augmentation de 1,7 fois de la bande passante mémoire effective pour ce GPU, par rapport à son prédécesseur direct, la GeForce GTX 980.

Nvidia a sagement décidé de ne pas sortir une architecture radicalement nouvelle sur un tout nouveau processus technique, afin de ne pas faire face à des problèmes inutiles lors du développement et de la production. Au lieu de cela, ils ont sérieusement amélioré l'architecture Maxwell déjà bonne et très efficace, en ajoutant quelques fonctionnalités. Du coup, tout va bien avec la production de nouveaux GPU, et dans le cas du modèle GeForce GTX 1080, les ingénieurs ont atteint un potentiel de fréquence très élevé - dans les versions overclockées des partenaires, la fréquence GPU est attendue jusqu'à 2 GHz ! Cette fréquence impressionnante est devenue une réalité grâce au processus technique parfait et au travail minutieux des ingénieurs Nvidia dans le développement du GPU Pascal.

Alors que Pascal est devenu le successeur direct du boîtier Maxwell et que ces architectures graphiques ne sont fondamentalement pas très différentes les unes des autres, Nvidia a mis en œuvre de nombreux changements et améliorations, notamment des capacités d'affichage, un moteur d'encodage et de décodage vidéo, une exécution asynchrone améliorée de divers types de calculs sur le GPU, apporté des modifications au rendu multi-puces et introduit une nouvelle méthode de synchronisation Fast Sync.

Il est impossible de ne pas distinguer la technologie de multiprojection simultanée Multi-Projection, qui permet d'augmenter les performances des systèmes de réalité virtuelle, d'obtenir un affichage plus correct des scènes sur les systèmes multi-écrans et d'introduire de nouvelles techniques pour optimiser les performances. Mais le plus grand gain de vitesse sera reçu par les applications VR lorsqu'elles prennent en charge la technologie de multiprojection, qui permet d'économiser les ressources GPU de moitié lors du traitement des données géométriques et une fois et demie dans les calculs par pixel.

Parmi les changements purement logiciels, la plate-forme de création de captures d'écran dans les jeux appelée Ansel se démarque - il sera intéressant de l'essayer en pratique non seulement pour de nombreux joueurs, mais aussi pour ceux qui s'intéressent simplement aux graphismes 3D de haute qualité. La nouveauté vous permet de faire passer l'art de créer et de retoucher des captures d'écran au niveau supérieur. Eh bien, Nvidia continue simplement d'améliorer ses packages pour les développeurs de jeux, tels que GameWorks et VRWorks, étape par étape - ainsi, dans ce dernier, une possibilité intéressante de traitement du son de haute qualité est apparue, prenant en compte de nombreuses réflexions d'ondes sonores lancer de rayon matériel.

En général, un véritable leader est entré sur le marché sous la forme de la carte vidéo Nvidia GeForce GTX 1080, possédant toutes les qualités nécessaires pour cela : hautes performances et fonctionnalités étendues, ainsi que prise en charge de nouvelles fonctionnalités et algorithmes. Les premiers acheteurs de cette carte vidéo pourront apprécier tout de suite bon nombre des avantages mentionnés, et d'autres possibilités de solutions seront révélées un peu plus tard, lorsqu'il y aura un large soutien de l'extérieur. Logiciel... L'essentiel est que la GeForce GTX 1080 s'est avérée très rapide et efficace, et certains des problèmes (les mêmes calculs asynchrones), comme nous l'espérons vraiment, ont été corrigés par les ingénieurs Nvidia.

Accélérateur graphique GeForce GTX 1070

ParamètreSens
Nom de code de la puceGP104
Technologie de productionFinFET 16 nm
Nombre de transistors7,2 milliards
Zone centrale314 mm²
ArchitectureUnifié, avec une panoplie de processeurs communs pour le traitement en continu de nombreux types de données : sommets, pixels, etc.
Prise en charge matérielle DirectXDirectX 12, avec prise en charge du niveau de fonctionnalité 12_1
Bus mémoire256 bits : huit contrôleurs de mémoire 32 bits indépendants prenant en charge la mémoire GDDR5 et GDDR5X
Fréquence GPU1506 (1683) MHz
Unités de calcul15 multiprocesseurs de streaming actifs (sur 20 dans la puce), dont 1920 (sur 2560) ALU scalaires pour les calculs en virgule flottante dans le cadre de la norme IEEE 754-2008 ;
Unités de texture120 unités d'adressage et de filtrage de texture actives (sur 160 dans la puce) avec prise en charge des composants FP16 et FP32 dans les textures et prise en charge du filtrage trilinéaire et anisotrope pour tous les formats de texture
Blocs d'opérations raster (ROP)8 blocs ROP larges (64 pixels) avec prise en charge de divers modes d'anti-aliasing, y compris ceux programmables au format framebuffer FP16 ou FP32. Les blocs se composent d'un ensemble d'ALU configurables et sont responsables de la génération et de la comparaison de la profondeur, du multi-échantillonnage et du mélange.
Prise en charge du moniteurPrise en charge intégrée d'un maximum de quatre moniteurs Dual Link DVI, HDMI 2.0b et DisplayPort 1.2 (prêt 1.3 / 1.4)

Spécifications de la carte graphique de référence GeForce GTX 1070
ParamètreSens
Fréquence de base1506 (1683) MHz
Nombre de processeurs universels1920
Nombre d'unités de texture120
Nombre de blocs de mélange64
Fréquence de mémoire effective8000 (4 × 2000) MHz
Type de mémoireGDDR5
Bus mémoire256 bits
Mémoire8 Go
Bande passante mémoire256 Go/s
Performances de calcul (FP32)environ 6,5 téraflops
Taux de remplissage maximum théorique96 gigapixels/s
Taux d'échantillonnage de texture théorique181 gigatexels / s
PneuPCI Express 3.0
ConnecteursUn DVI Dual Link, un HDMI et trois DisplayPort
Consommation d'énergiejusqu'à 150 W
Nourriture supplémentaireUn connecteur à 8 broches
Le nombre d'emplacements occupés dans le châssis du système2
Prix ​​recommandé379-449 $ (États-Unis), 34 990 (Russie)

La carte vidéo GeForce GTX 1070 a également reçu un nom logique, similaire à la même solution de la série GeForce précédente. Elle ne diffère de son prédécesseur direct, la GeForce GTX 970, que par le numéro de génération modifié. La nouveauté est dans la ligne actuelle de la société un cran plus bas que la solution haut de gamme actuelle GeForce GTX 1080, qui est devenue le produit phare temporaire de la nouvelle série jusqu'à la sortie de solutions sur des GPU de plus grande puissance.

Les prix recommandés pour la nouvelle carte graphique haut de gamme de Nvidia sont de 379 $ et 449 $ pour les versions régulières des partenaires Nvidia et l'édition spéciale Founders, respectivement. Par rapport au modèle haut de gamme, c'est un très bon prix étant donné que la GTX 1070 est en retard d'environ 25 % dans le pire des cas. Et au moment de l'annonce et de la sortie, la GTX 1070 devient la meilleure solution de performance de sa catégorie. Comme la GeForce GTX 1080, la GTX 1070 n'a pas de concurrente directe d'AMD et ne peut être comparée qu'avec les Radeon R9 390X et Fury.

Il a été décidé de laisser le bus mémoire complet de 256 bits pour le processeur graphique GP104 dans la modification GeForce GTX 1070, bien qu'ils aient utilisé non pas un nouveau type de mémoire GDDR5X, mais une GDDR5 très rapide, qui fonctionne à une fréquence efficace élevée de 8 GHz. La quantité de mémoire installée sur une carte vidéo avec un tel bus peut être égale à 4 ou 8 Go, et afin d'assurer des performances maximales de la nouvelle solution dans des conditions de réglages et de résolutions de rendu élevés, le modèle de la GeForce GTX 1070 vidéo La carte était également équipée de 8 Go de mémoire vidéo, comme sa sœur aînée. Ce volume est suffisant pour exécuter toutes les applications 3D avec des paramètres de qualité maximale pendant plusieurs années.

Édition spéciale GeForce GTX 1070 Founders Edition

Lorsque la GeForce GTX 1080 a été annoncée début mai, une édition spéciale de la carte graphique appelée Founders Edition a été annoncée, dont le prix est plus élevé que les cartes graphiques habituelles des partenaires de la société. Il en va de même pour le nouveau produit. Dans cet article, nous reparlerons de l'édition spéciale de la carte graphique GeForce GTX 1070 appelée Founders Edition. Comme dans le cas de l'ancien modèle, Nvidia a décidé de sortir cette version de la carte vidéo de référence du fabricant à un prix plus élevé. Ils soutiennent que de nombreux joueurs et passionnés qui achètent des cartes graphiques haut de gamme coûteuses veulent un produit qui a une apparence et une sensation « premium » correspondantes.

En conséquence, c'est pour ces utilisateurs que la GeForce GTX 1070 Founders Edition sera lancée sur le marché, qui est conçue et construite par les ingénieurs Nvidia à partir de matériaux et de composants haut de gamme, tels que le capot en aluminium de la GeForce GTX 1070 Founders Edition, ainsi que comme une plaque arrière à profil bas qui couvre l'arrière du PCB et très populaire auprès des passionnés.

Comme vous pouvez le voir sur les photos de la carte, la GeForce GTX 1070 Founders Edition hérite exactement du même design industriel que l'on retrouve dans la référence GeForce GTX 1080 Founders Edition. Les deux modèles utilisent un ventilateur radial qui souffle de l'air chauffé vers l'extérieur, ce qui est très utile dans les petits boîtiers et les configurations SLI multipuces avec un espace physique limité. En soufflant de l'air chaud à l'extérieur au lieu de le faire circuler à l'intérieur du châssis, il peut réduire le stress thermique, améliorer les résultats d'overclocking et prolonger la durée de vie des composants du système.

Sous le capot du système de refroidissement de référence GeForce GTX 1070, se trouve un dissipateur thermique en aluminium de forme spéciale avec trois caloducs en cuivre intégrés qui évacuent la chaleur du GPU lui-même. La chaleur dissipée par les caloducs est ensuite dissipée par un radiateur en aluminium. Eh bien, la plaque métallique à profil bas à l'arrière de la carte est également conçue pour offrir de meilleures performances thermiques. Il possède également une section rétractable pour une meilleure circulation de l'air entre plusieurs cartes graphiques dans les configurations SLI.

En ce qui concerne l'alimentation de la carte, la GeForce GTX 1070 Founders Edition dispose d'une alimentation quadriphasée optimisée pour une alimentation stable. Nvidia affirme que la GTX 1070 Founders Edition a amélioré l'efficacité énergétique, la stabilité et la fiabilité par rapport à la GeForce GTX 970 pour de meilleures performances d'overclocking. Dans les propres tests de l'entreprise, les GPU GeForce GTX 1070 ont facilement surpassé la valeur de 1,9 GHz, ce qui est proche des résultats de l'ancien modèle GTX 1080.

La carte graphique Nvidia GeForce GTX 1070 sera disponible dans les magasins de détail à partir du 10 juin. Les prix recommandés pour GeForce GTX 1070 Founders Edition et les solutions partenaires diffèrent, et c'est la plus grande question pour cette édition spéciale. Si les partenaires Nvidia vendent leurs cartes graphiques GeForce GTX 1070 à partir de 379 $ (sur le marché américain), alors la conception de référence de l'édition Founders de Nvidia coûtera 449 $. Y a-t-il beaucoup de passionnés prêts à payer trop cher pour, franchement, les avantages douteux de la version de référence ? L'avenir nous le dira, mais nous pensons que la planche de référence est plus intéressante en tant qu'option disponible à l'achat au tout début des ventes, et plus tard le point de l'acquérir (et même à un prix élevé !) est déjà réduit à zéro.

Il reste à ajouter que la carte de circuit imprimé de la référence GeForce GTX 1070 est similaire à celle de l'ancienne carte vidéo, et les deux diffèrent de l'appareil des cartes précédentes de la société. La valeur de consommation électrique typique du nouveau produit est de 150 W, soit près de 20 % de moins que la valeur de la GTX 1080 et proche de la consommation électrique de la génération précédente GeForce GTX 970. La carte Nvidia de référence a un ensemble familier de connecteurs pour connecter des périphériques de sortie d'image : un DVI Dual-Link, un HDMI et trois DisplayPort. De plus, la prise en charge des nouvelles versions de HDMI et DisplayPort est apparue, ce dont nous avons parlé ci-dessus dans l'examen du modèle GTX 1080.

Changements architecturaux

La carte graphique GeForce GTX 1070 est basée sur la puce GP104, la première de l'architecture graphique Pascal de nouvelle génération de Nvidia. Cette architecture a pris comme base les solutions élaborées dans Maxwell, mais elle présente également quelques différences fonctionnelles, dont nous avons parlé en détail ci-dessus - dans la partie consacrée à la carte vidéo haut de gamme GeForce GTX 1080.

Le principal changement dans la nouvelle architecture était le processus technologique par lequel tous les nouveaux GPU seront exécutés. L'utilisation de la technologie de processus FinFET 16 nm dans la production de GP104 a permis d'augmenter considérablement la complexité de la puce tout en maintenant une surface et un coût relativement faibles, et la toute première puce de l'architecture Pascal a un nombre d'exécution sensiblement plus important. unités, y compris celles offrant de nouvelles fonctionnalités, par rapport aux puces Maxwell de positionnement similaire.

La puce vidéo GP104 est similaire dans sa structure à des solutions similaires de l'architecture Maxwell, et vous pouvez trouver des informations détaillées sur le périphérique des GPU modernes dans nos revues des solutions précédentes de Nvidia. Comme les GPU précédents, les nouvelles puces d'architecture auront différentes configurations de clusters de traitement graphique (GPC), de multiprocesseurs de streaming (SM) et de contrôleurs de mémoire, et certains changements ont déjà eu lieu dans la GeForce GTX 1070 - une partie de la puce était verrouillée et inactive ( surligné en gris) :

Bien que le GPU GP104 comprenne quatre clusters GPC et 20 multiprocesseurs SM, dans la version pour la GeForce GTX 1070, il a reçu une modification simplifiée avec un cluster GPC désactivé par le matériel. Étant donné que chaque GPC dispose d'un moteur de rastérisation dédié et comprend cinq multiprocesseurs SM, et que chaque multiprocesseur se compose de 128 cœurs CUDA et de huit unités de texture TMU, 1920 cœurs CUDA et 120 TMU de 2560 processeurs de flux sont actifs dans cette version GP104 et 160 unités de texture disponibles physiquement.

Le processeur graphique sur lequel est basée la GeForce GTX 1070 contient huit contrôleurs de mémoire 32 bits, donnant le bus mémoire final de 256 bits - exactement comme dans le cas de l'ancien modèle GTX 1080. Le sous-système mémoire n'a pas été coupé pour fournir suffisamment mémoire de bande passante à condition d'utiliser la mémoire GDDR5 dans la GeForce GTX 1070. Huit ROP et 256 Ko de cache L2 sont liés à chacun des contrôleurs de mémoire, de sorte que la puce GP104 de cette modification contient également 64 ROP et 2048 Ko de niveau de cache L2 .

Grâce à des optimisations architecturales et à une nouvelle technologie de processus, le GPU GP104 est devenu le GPU le plus économe en énergie à ce jour. Les ingénieurs Nvidia ont pu augmenter la vitesse d'horloge plus que prévu lors du passage à la nouvelle technologie de processus, pour laquelle ils ont dû travailler dur, en vérifiant soigneusement et en optimisant tous les goulots d'étranglement des solutions précédentes, qui ne leur permettaient pas de fonctionner à un fréquence plus élevée. Ainsi, la GeForce GTX 1070 fonctionne également à une fréquence très élevée, plus de 40 % supérieure à la valeur de référence de la GeForce GTX 970.

Étant donné que le modèle GeForce GTX 1070 n'est, par essence, qu'une GTX 1080 légèrement moins productive avec mémoire GDDR5, il prend en charge absolument toutes les technologies que nous avons décrites dans la section précédente. Pour plus de détails sur l'architecture Pascal, ainsi que sur les technologies qu'elle prend en charge, telles que la sortie vidéo et les unités de traitement améliorées, la prise en charge du calcul asynchrone, la technologie de multi-projection simultanée, les modifications apportées au rendu multi-puces SLI et le nouveau type de synchronisation rapide de synchronisation, vérifiez avec une section GTX 1080.

La mémoire GDDR5 haute performance et son utilisation efficace

Nous avons écrit ci-dessus sur les modifications apportées au sous-système de mémoire du GPU GP104, sur lequel sont basés les modèles GeForce GTX 1080 et GTX 1070 - les contrôleurs de mémoire inclus dans ce GPU prennent en charge à la fois le nouveau type de mémoire vidéo GDDR5X, qui est décrit en détail dans le test GTX 1080, ainsi que la bonne vieille mémoire GDDR5 que nous connaissons depuis plusieurs années.

Afin de ne pas perdre trop de bande passante mémoire dans le modèle plus jeune GTX 1070 par rapport à l'ancien GTX 1080, les huit contrôleurs de mémoire 32 bits y ont été laissés actifs, ayant reçu une interface de mémoire vidéo commune complète de 256 bits. De plus, la carte vidéo était équipée de la mémoire GDDR5 la plus rapide disponible sur le marché - avec une fréquence de fonctionnement effective de 8 GHz. Tout cela offrait une bande passante mémoire de 256 Go/s, contre 320 Go/s dans l'ancienne solution - les capacités de calcul ont été réduites à peu près du même montant, donc l'équilibre a été respecté.

Gardez à l'esprit que si la bande passante théorique maximale est importante pour les performances du GPU, vous devez également faire attention à son efficacité. Pendant le rendu, de nombreux goulots d'étranglement différents peuvent limiter les performances globales, empêchant l'utilisation de toute la bande passante mémoire disponible. Pour minimiser ces goulots d'étranglement, les GPU utilisent une compression spéciale sans perte pour améliorer l'efficacité des opérations de lecture et d'écriture.

Dans l'architecture Pascal, la quatrième génération de compression delta des informations de tampon a été introduite, ce qui permet au GPU d'utiliser plus efficacement les capacités disponibles du bus mémoire vidéo. Le sous-système de mémoire des GeForce GTX 1070 et GTX 1080 utilise des anciennes et plusieurs nouvelles techniques de compression de données sans perte améliorées conçues pour réduire les besoins en bande passante mémoire. Cela réduit la quantité de données écrites dans la mémoire, améliore l'efficacité du cache L2 et réduit la quantité de données transférées entre différents points du GPU, tels que le TMU et le framebuffer.

GPU Boost 3.0 et fonctionnalités d'overclocking

La plupart des partenaires de Nvidia ont déjà annoncé des solutions d'overclocking d'usine basées sur les GeForce GTX 1080 et GTX 1070. Et de nombreux fabricants de cartes vidéo créent également des utilitaires d'overclocking spéciaux qui vous permettent d'utiliser les nouvelles fonctionnalités de la technologie GPU Boost 3.0. Un exemple de tels utilitaires est EVGA Precision XOC, qui comprend un scanner automatique pour déterminer la courbe de tension en fonction de la fréquence - dans ce mode, pour chaque valeur de tension, en exécutant un test de stabilité, une fréquence stable est trouvée à laquelle le GPU fournit des gains de performances . Cependant, cette courbe peut également être modifiée manuellement.

Nous connaissons bien la technologie GPU Boost des précédentes cartes vidéo de Nvidia. Dans leurs GPU, ils utilisent cette fonctionnalité matérielle conçue pour augmenter la vitesse d'horloge du GPU de fonctionnement dans les modes où elle n'a pas encore atteint les limites de consommation d'énergie et de dissipation thermique. Dans les GPU Pascal, cet algorithme a subi plusieurs modifications, la principale étant un réglage plus fin des fréquences turbo, en fonction de la tension.

Si auparavant la différence entre la fréquence de base et la fréquence turbo était fixée, alors dans GPU Boost 3.0, il devenait possible de définir les décalages des fréquences turbo pour chaque tension séparément. Maintenant, la fréquence turbo peut être définie pour chacune des valeurs de tension individuelles, ce qui vous permet de tirer pleinement parti de toutes les capacités d'overclocking du GPU. Nous avons écrit à ce sujet en détail dans notre revue GeForce GTX 1080, et vous pouvez utiliser les utilitaires EVGA Precision XOC et MSI Afterburner pour cela.

Étant donné que certains détails ont changé dans la méthode d'overclocking avec la sortie des cartes vidéo prenant en charge GPU Boost 3.0, Nvidia a dû apporter des explications supplémentaires dans les instructions d'overclocking des nouveaux produits. Il existe différentes techniques d'overclocking avec différentes caractéristiques variables qui affectent le résultat final. Pour un système donné, une méthode spécifique peut être mieux adaptée, mais la base est toujours à peu près la même.

De nombreux overclockeurs utilisent le benchmark Unigine Heaven 4.0 pour vérifier la stabilité du système, qui charge parfaitement le GPU avec le travail, a des paramètres flexibles et peut être exécuté en mode fenêtré avec une fenêtre utilitaire d'overclocking et de surveillance à proximité, comme EVGA Precision ou MSI Afterburner. Cependant, une telle vérification n'est suffisante que pour les estimations initiales, et pour confirmer fermement la stabilité de l'overclocking, elle doit être vérifiée dans plusieurs applications de jeu, car différents jeux assument des charges différentes sur différentes unités fonctionnelles du GPU : mathématique, texture, géométrique. Le benchmark Heaven 4.0 est également pratique pour la tâche d'overclocking car il dispose d'un mode de fonctionnement en boucle dans lequel il est pratique de modifier les paramètres d'overclocking et il existe un benchmark pour évaluer le gain de vitesse.

Nvidia conseille d'exécuter les fenêtres Heaven 4.0 et EVGA Precision XOC ensemble lors de l'overclocking des nouvelles cartes graphiques GeForce GTX 1080 et GTX 1070. Tout d'abord, il est conseillé d'augmenter immédiatement la vitesse du ventilateur. Et pour un overclocking sérieux, vous pouvez immédiatement définir la valeur de vitesse sur 100%, ce qui fera fonctionner la carte vidéo très fort, mais refroidira autant que possible le GPU et les autres composants de la carte vidéo, en abaissant la température au niveau le plus bas possible , empêchant le throttling (baisse des fréquences due à une augmentation de la température du GPU au-dessus d'une certaine valeur ).

Ensuite, vous devez également régler la cible de puissance au maximum. Ce paramètre fournira au GPU autant de puissance que possible en augmentant la consommation d'énergie et la cible de température du GPU. À certaines fins, la deuxième valeur peut être séparée du changement de cible de puissance, puis ces paramètres peuvent être ajustés individuellement - pour obtenir moins de chauffage de la puce vidéo, par exemple.

L'étape suivante consiste à augmenter le décalage d'horloge GPU - cela signifie à quel point la fréquence turbo sera plus élevée pendant le fonctionnement. Cette valeur augmente la fréquence pour toutes les tensions et améliore les performances. Comme d'habitude, lors de l'overclocking, vous devez vérifier la stabilité lorsque vous augmentez la fréquence du GPU par petites étapes - de 10 MHz à 50 MHz par étape avant de remarquer un blocage, une erreur de pilote ou d'application, ou même des artefacts visuels. Lorsque cette limite est atteinte, vous devez réduire la valeur de fréquence d'un cran et vérifier à nouveau la stabilité et les performances lors de l'overclocking.

En plus de la fréquence GPU, vous pouvez également augmenter la fréquence de la mémoire vidéo (Memory Clock Offset), ce qui est particulièrement important dans le cas de la GeForce GTX 1070 équipée de mémoire GDDR5, qui overclocke généralement bien. Dans le cas de la fréquence mémoire, le processus répète exactement ce qui est fait lorsqu'une fréquence GPU stable est trouvée, la seule différence est que les étapes peuvent être agrandies - ajoutez 50-100 MHz à la fréquence de base à la fois.

En plus des étapes décrites ci-dessus, vous pouvez également augmenter la limite de tension (Surtension), car une fréquence GPU plus élevée est souvent obtenue à des tensions plus élevées, lorsque des parties instables du GPU reçoivent une alimentation supplémentaire. Certes, l'inconvénient potentiel de l'augmentation de cette valeur est la possibilité d'endommager la puce vidéo et sa défaillance accélérée, vous devez donc utiliser l'augmentation de tension avec une extrême prudence.

Les amateurs d'overclocking utilisent des techniques légèrement différentes, en modifiant les paramètres dans un ordre différent. Par exemple, certains overclockeurs partagent leurs expériences pour trouver un GPU et une fréquence de mémoire stables afin qu'ils n'interfèrent pas les uns avec les autres, puis testent l'overclocking combiné de la puce vidéo et des puces mémoire, mais ce sont déjà des détails insignifiants de l'individu approcher.

A en juger par les opinions dans les forums et les commentaires sur les articles, certains utilisateurs n'ont pas aimé le nouvel algorithme GPU Boost 3.0, lorsque la fréquence du GPU monte d'abord très haut, souvent plus haut que la fréquence turbo, mais ensuite, sous l'influence du Augmentation de la température du GPU ou augmentation de la consommation d'énergie au-dessus de la limite définie, elle peut chuter à des valeurs beaucoup plus basses. Ce ne sont que les spécificités de l'algorithme mis à jour, vous devez vous habituer au nouveau comportement de la fréquence GPU dynamiquement variable, mais cela n'a pas de conséquences négatives.

La carte graphique GeForce GTX 1070 est le deuxième modèle après la GTX 1080 dans la nouvelle gamme de GPU Pascal de Nvidia. La nouvelle technologie de processus FinFET 16 nm et les optimisations d'architecture ont permis à la carte vidéo présentée d'atteindre des vitesses d'horloge élevées, ce qui est également aidé par la nouvelle génération de technologie GPU Boost. Même si le nombre d'unités fonctionnelles sous forme de processeurs de flux et d'unités de texture a été réduit, leur nombre est resté suffisant pour que la GTX 1070 devienne la solution la plus rentable et la plus économe en énergie.

L'installation de mémoire GDDR5 sur la plus jeune de la paire de cartes graphiques Nvidia lancées à base de puce GP104, contrairement au nouveau type de GDDR5X, dont la GTX 1080 diffère, ne l'empêche pas d'atteindre des indicateurs de performances élevés. Premièrement, Nvidia a décidé de ne pas couper le bus mémoire du modèle GeForce GTX 1070, et deuxièmement, ils ont installé la mémoire GDDR5 la plus rapide avec une fréquence effective de 8 GHz, qui n'est que légèrement inférieure à 10 GHz pour la GDDR5X utilisée dans l'ancien modèle. Compte tenu également des algorithmes de compression delta améliorés, la bande passante mémoire effective du GPU est devenue supérieure à celle du modèle similaire de la génération précédente GeForce GTX 970.

La GeForce GTX 1070 est bonne car elle offre des performances très élevées et le support de nouvelles fonctionnalités et algorithmes à un prix nettement inférieur par rapport à l'ancien modèle annoncé un peu plus tôt. Si quelques passionnés peuvent se permettre l'achat d'une GTX 1080 pour 55 000, alors un cercle beaucoup plus large d'acheteurs potentiels pourra payer 35 000 pour seulement un quart de solution moins productive avec exactement les mêmes capacités. C'est cette combinaison de prix relativement bas et de performances élevées qui a fait de la GeForce GTX 1070 le meilleur achat au moment de sa sortie.

Accélérateur graphique GeForce GTX 1060

ParamètreSens
Nom de code de la puceGP106
Technologie de productionFinFET 16 nm
Nombre de transistors4,4 milliards
Zone centrale200 mm²
ArchitectureUnifié, avec une panoplie de processeurs communs pour le traitement en continu de nombreux types de données : sommets, pixels, etc.
Prise en charge matérielle DirectXDirectX 12, avec prise en charge du niveau de fonctionnalité 12_1
Bus mémoire192 bits : Six contrôleurs de mémoire 32 bits indépendants prenant en charge la mémoire GDDR5
Fréquence GPU1506 (1708) MHz
Unités de calcul10 multiprocesseurs de streaming, dont 1280 ALU scalaires pour les calculs en virgule flottante dans le cadre de la norme IEEE 754-2008 ;
Unités de texture80 unités d'adressage et de filtrage de texture avec prise en charge des composants FP16 et FP32 dans les textures et prise en charge du filtrage trilinéaire et anisotrope pour tous les formats de texture
Blocs d'opérations raster (ROP)6 blocs ROP larges (48 pixels) avec prise en charge de divers modes d'anti-aliasing, y compris ceux programmables au format framebuffer FP16 ou FP32. Les blocs se composent d'un ensemble d'ALU configurables et sont responsables de la génération et de la comparaison de la profondeur, du multi-échantillonnage et du mélange.
Prise en charge du moniteurPrise en charge intégrée d'un maximum de quatre moniteurs Dual Link DVI, HDMI 2.0b et DisplayPort 1.2 (prêt 1.3 / 1.4)

Spécifications de la carte graphique de référence GeForce GTX 1060
ParamètreSens
Fréquence de base1506 (1708) MHz
Nombre de processeurs universels1280
Nombre d'unités de texture80
Nombre de blocs de mélange48
Fréquence de mémoire effective8000 (4 × 2000) MHz
Type de mémoireGDDR5
Bus mémoire192 bits
Mémoire6 Go
Bande passante mémoire192 Go/s
Performances de calcul (FP32)environ 4 téraflops
Taux de remplissage maximum théorique72 gigapixels/s
Taux d'échantillonnage de texture théorique121 gigatexels / s
PneuPCI Express 3.0
ConnecteursUn DVI Dual Link, un HDMI et trois DisplayPort
Consommation d'énergie typique120 watts
Nourriture supplémentaireUn connecteur 6 broches
Le nombre d'emplacements occupés dans le châssis du système2
Prix ​​recommandé249 $ (299 $) aux États-Unis et 18 990 en Russie

La carte vidéo GeForce GTX 1060 a également reçu un nom similaire à la même solution de la série GeForce précédente, ne différant du nom de son prédécesseur direct, la GeForce GTX 960, que par le premier chiffre modifié de la génération. La nouveauté est devenue dans la gamme actuelle de la société un cran en dessous de la solution GeForce GTX 1070 précédemment publiée, qui correspond à la vitesse moyenne de la nouvelle série.

Les prix recommandés pour la nouvelle carte vidéo de Nvidia sont de 249 $ et 299 $ pour les versions régulières des partenaires de la société et pour l'édition spéciale de l'édition du fondateur, respectivement. Par rapport aux deux anciens modèles, c'est très prix rentable, puisque le nouveau modèle GTX 1060, bien qu'inférieur aux cartes mères haut de gamme, est loin d'être aussi cher qu'eux. Au moment de l'annonce, le nouveau produit est définitivement devenu la solution la plus performante de sa catégorie et l'une des offres les plus avantageuses dans cette gamme de prix.

Ce modèle de carte vidéo de la famille Pascal de Nvidia est venu contrecarrer la nouvelle décision d'une société concurrente AMD, qui a lancé un peu plus tôt la Radeon RX 480 sur le marché. ... La GeForce GTX 1060 est plus chère (249-299$ contre 199-229$), mais nettement plus rapide que sa concurrente.

Le processeur graphique GP106 dispose d'un bus mémoire de 192 bits, la quantité de mémoire installée sur une carte vidéo avec un tel bus peut donc être de 3 ou 6 Go. Une valeur moindre dans les conditions modernes n'est franchement pas suffisante, et de nombreux projets de jeux, même dans Résolution Full HD se heurtera à un manque de mémoire vidéo, ce qui affectera sérieusement la fluidité du rendu. Pour maximiser les performances de la nouvelle solution dans des paramètres élevés, le modèle GeForce GTX 1060 était équipé de 6 Go de mémoire vidéo, ce qui est suffisant pour exécuter n'importe quelle application 3D avec n'importe quel paramètre de qualité. De plus, aujourd'hui, il n'y a tout simplement pas de différence entre 6 et 8 Go, et une telle solution permettra d'économiser un peu d'argent.

La valeur de consommation électrique typique du nouveau produit est de 120 W, soit 20 % de moins que la valeur de la GTX 1070 et égale à la consommation électrique de la génération précédente de GeForce GTX 960, qui a des performances et des capacités bien inférieures. La carte de référence dispose de l'ensemble habituel de connecteurs pour connecter des périphériques de sortie vidéo : un DVI Dual-Link, un HDMI et trois DisplayPort. De plus, la prise en charge des nouvelles versions de HDMI et DisplayPort est apparue, ce dont nous avons parlé dans l'examen du modèle GTX 1080.

La longueur de la carte GeForce GTX 1060 de référence est de 9,8 pouces (25 cm), et parmi les différences par rapport aux anciennes versions, nous notons séparément que la GeForce GTX 1060 ne prend pas en charge la configuration de rendu multi-puces SLI, et n'a pas de connecteur spécial pour cela. Étant donné que la carte consomme moins d'énergie que les anciens modèles, un connecteur d'alimentation externe PCI-E à 6 broches a été installé sur la carte pour une alimentation supplémentaire.

Les cartes vidéo GeForce GTX 1060 sont apparues sur le marché depuis le jour de l'annonce sous la forme de produits des partenaires de la société : Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Une édition spéciale de la GeForce GTX 1060 Founder's Edition, produite par Nvidia elle-même, sortira également en quantité limitée, qui sera vendue au prix de 299 $ exclusivement sur le site Web de Nvidia et ne sera pas officiellement présentée en Russie. L'édition Founder's est construite avec des matériaux et des composants de haute qualité, y compris un boîtier en aluminium, et utilise un système de refroidissement efficace, des circuits d'alimentation à faible résistance et des régulateurs de tension spécialement conçus.

Changements architecturaux

La carte graphique GeForce GTX 1060 est basée sur un tout nouveau modèle de GPU GP106, qui n'est fonctionnellement pas différent du premier-né de l'architecture Pascal sous la forme de la puce GP104, sur laquelle les modèles GeForce GTX 1080 et GTX 1070 décrits ci-dessus sont basés sur Maxwell, mais il présente également quelques différences fonctionnelles, dont nous avons parlé en détail plus tôt.

La puce vidéo GP106 est similaire dans sa structure à la puce Pascal haut de gamme et aux solutions similaires de l'architecture Maxwell, et vous pouvez trouver des informations détaillées sur le périphérique des GPU modernes dans nos revues des solutions précédentes de Nvidia. Comme les GPU précédents, les nouvelles puces d'architecture ont différentes configurations de clusters de traitement graphique (GPC), de multiprocesseurs de streaming (SM) et de contrôleurs de mémoire :

Le GPU GP106 dispose de deux clusters GPC constitués de 10 Streaming Multiprocessors (SM), soit exactement la moitié des GP104. Comme dans l'ancien GPU, chacun des multiprocesseurs contient 128 cœurs de calcul, 8 unités de texture TMU, 256 Ko de mémoire de registre, 96 Ko de mémoire partagée et 48 Ko de cache L1. En conséquence, la GeForce GTX 1060 contient un total de 1280 cœurs de traitement et 80 unités de texture, soit la moitié de la taille de la GTX 1080.

Mais le sous-système mémoire de la GeForce GTX 1060 n'a pas été réduit de moitié par rapport à la solution haut de gamme, il contient six contrôleurs mémoire 32 bits, donnant le bus mémoire 192 bits final. Avec une fréquence effective de mémoire vidéo GDDR5 pour la GeForce GTX 1060 égale à 8 GHz, la bande passante atteint 192 Go/s, ce qui est plutôt bien pour une solution dans ce segment de prix, surtout compte tenu de la grande efficacité de son utilisation en Pascal. Chaque contrôleur de mémoire a huit ROP et 256 Ko de cache L2 liés à chaque contrôleur de mémoire, donc au total, la version complète du GPU GP106 contient 48 ROP et 1536 Ko de cache L2.

Pour réduire les besoins en bande passante mémoire et utiliser plus efficacement l'architecture Pascal, la compression intra-puce sans perte a été encore améliorée, capable de compresser les données dans des tampons, de gagner en efficacité et en performances. En particulier, de nouvelles méthodes de compression delta ont été ajoutées aux puces de la nouvelle famille avec des ratios 4: 1 et 8:1, offrant 20 % supplémentaires à l'efficacité de la bande passante mémoire par rapport aux solutions précédentes de la famille Maxwell.

La fréquence de base du nouveau GPU est de 1506 MHz - la fréquence ne devrait en principe pas descendre en dessous de cette marque. L'horloge turbo typique (Boost Clock) est beaucoup plus élevée et est égale à 1708 MHz - c'est la valeur moyenne de la fréquence réelle à laquelle la puce graphique GeForce GTX 1060 fonctionne dans grand ensemble jeux et applications 3D. La fréquence réelle du Boost dépend du jeu et de l'environnement de test.

Comme le reste de la famille Pascal, la GeForce GTX 1060 fonctionne non seulement à une vitesse d'horloge élevée, offrant des performances élevées, mais dispose également d'une marge de sécurité décente pour l'overclocking. Les premières expériences indiquent la possibilité d'atteindre des fréquences de l'ordre de 2 GHz. Il n'est pas surprenant que les partenaires de la société préparent, entre autres, des versions overclockées en usine de la carte vidéo GTX 1060.

Ainsi, le principal changement de la nouvelle architecture a été le procédé technologique FinFET 16 nm, dont l'utilisation dans la production du GP106 a permis d'augmenter considérablement la complexité de la puce tout en conservant une surface relativement faible de 200 mm², donc cette puce de l'architecture Pascal possède un nombre d'unités d'exécution sensiblement plus important par rapport à la puce Maxwell de positionnement similaire fabriquée en utilisant la technologie des procédés 28 nm.

Si le GM206 (GTX 960) d'une superficie de 227 mm² comptait 3 milliards de transistors et 1024 ALU, 64 TMU, 32 ROP et un bus 128 bits, alors le nouveau GPU a déjà accueilli 4,4 milliards de transistors, 1280 ALU en 200 mm² , 80 TMU et 48 ROP avec bus 192 bits. De plus, à une fréquence presque une fois et demie plus élevée : 1506 (1708) contre 1126 (1178) MHz. Et cela à la même consommation électrique de 120 W ! En conséquence, le GPU GP106 est devenu l'un des GPU les plus économes en énergie, avec le GP104.

Nouvelles technologies Nvidia

L'une des technologies les plus intéressantes de l'entreprise, qui est prise en charge par la GeForce GTX 1060 et d'autres solutions de la famille Pascal, est la technologie Multi-projection simultanée Nvidia... Nous avons déjà parlé de cette technologie dans notre test GeForce GTX 1080, et elle vous permet d'utiliser plusieurs nouvelles techniques pour optimiser le rendu. En particulier, pour projeter simultanément une image VR pour deux yeux à la fois, augmentant considérablement l'efficacité d'utilisation du GPU en réalité virtuelle.

Pour prendre en charge SMP, tous les GPU Pascal ont un moteur dédié situé dans le moteur PolyMorph à la fin du pipeline de géométrie, avant l'unité ROP. Avec son aide, le GPU peut projeter simultanément une primitive géométrique sur plusieurs projections à partir d'un même point, tandis que ces projections peuvent être stéréo (c'est-à-dire que jusqu'à 16 ou 32 projections sont prises en charge simultanément). Cette capacité permet aux GPU Pascal de reproduire avec précision une surface incurvée pour le rendu VR, ainsi que de s'afficher correctement sur les systèmes multi-écrans.

Il est important que la technologie de multi-projection simultanée soit déjà intégrée dans les moteurs de jeux populaires (Unreal Engine et Unity) et les jeux, et à ce jour, la prise en charge de la technologie a été annoncée pour plus de 30 jeux en développement, y compris des jeux aussi bien connus projets comme Unreal Tournament. , Poolnation VR, Everest VR, Obduction, Adr1ft et Raw Data. Fait intéressant, bien qu'Unreal Tournament ne soit pas un jeu VR, il utilise SMP pour obtenir de meilleurs visuels et de meilleures performances.

Une autre technologie très attendue est un puissant outil de capture d'écran pour les jeux. Nvidia Ansel... Cet outil vous permet de créer des captures d'écran inhabituelles et de très haute qualité à partir de jeux, avec des fonctionnalités auparavant indisponibles, de les enregistrer en très haute résolution et de les compléter avec divers effets, et de partager vos travaux. Ansel vous permet de créer littéralement une capture d'écran comme l'artiste le souhaite, vous permettant d'installer une caméra avec n'importe quel paramètre à n'importe quel point de la scène, d'appliquer de puissants post-filtres à l'image, ou même de prendre une photo à 360 degrés pour la visualisation dans un casque de réalité virtuelle.

Nvidia a standardisé l'intégration de l'interface utilisateur d'Ansel dans les jeux, et c'est aussi simple que d'ajouter quelques lignes de code au code. Il n'est pas nécessaire d'attendre que cette fonctionnalité apparaisse dans les jeux, vous pouvez évaluer les capacités d'Ansel dès maintenant dans Mirror's Edge: Catalyst, et un peu plus tard, elle deviendra disponible dans Witcher 3: Wild Hunt. En outre, il existe de nombreux projets de jeux compatibles avec Ansel en cours de développement, notamment des jeux tels que Fortnite, Paragon et Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky et d'autres.

Le nouveau GPU GeForce GTX 1060 prend également en charge la boîte à outils Nvidia VRWorks pour aider les développeurs à créer des expériences VR impressionnantes. Ce package comprend de nombreux utilitaires et outils pour les développeurs, dont VRWorks Audio, qui vous permet d'effectuer des calculs très précis des réflexions des ondes sonores des objets de la scène à l'aide du lancer de rayons sur le GPU. Le package comprend également l'intégration dans les effets physiques VR et PhysX pour fournir un comportement physiquement correct des objets de la scène.

L'un des jeux virtuels les plus brillants pour tirer parti de VRWorks est VR Funhouse, un jeu de réalité virtuelle de Nvidia lui-même, disponible gratuitement sur Valve Steam. Ce jeu est basé sur l'Unreal Engine 4 (Epic Games) et fonctionne sur les cartes graphiques GeForce GTX 1080, 1070 et 1060 en conjonction avec les casques HTC Vive VR. De plus, le code source de ce jeu sera accessible au public, ce qui permettra à d'autres développeurs d'utiliser des idées et du code prêts à l'emploi déjà dans leurs manèges VR. Croyez-nous sur parole, c'est l'une des démonstrations les plus impressionnantes des capacités de réalité virtuelle.

Y compris grâce aux technologies SMP et VRWorks, l'utilisation du GPU GeForce GTX 1060 dans les applications VR offre des performances suffisantes pour la réalité virtuelle d'entrée de gamme, et le GPU en question répond au niveau matériel minimum requis, y compris pour SteamVR, devenant l'un des acquisitions les plus réussies pour une utilisation sur des systèmes avec prise en charge officielle de la réalité virtuelle.

Étant donné que le modèle GeForce GTX 1060 est basé sur la puce GP106, qui n'est en aucun cas inférieure en capacités au processeur graphique GP104, qui est devenu la base des modifications plus anciennes, il prend en charge absolument toutes les technologies décrites ci-dessus.

La carte graphique GeForce GTX 1060 est le troisième modèle de la nouvelle gamme de GPU Pascal de Nvidia. Les nouvelles optimisations du processus technologique et de l'architecture FinFET 16 nm ont permis à toutes les nouvelles cartes vidéo d'atteindre une fréquence d'horloge élevée et de placer plus de blocs fonctionnels dans le GPU sous la forme de processeurs de flux, d'unités de texture et autres, par rapport aux puces vidéo de la génération précédente. C'est pourquoi la GTX 1060 est devenue la solution la plus rentable et la plus économe en énergie de sa catégorie et en général.

Il est particulièrement important que la GeForce GTX 1060 offre des performances et un support suffisamment élevés pour les nouvelles fonctionnalités et algorithmes à un prix nettement inférieur à celui des anciennes solutions basées sur le GP104. La puce graphique GP106 du nouveau modèle offre des performances et une efficacité énergétique de premier ordre. Le modèle GeForce GTX 1060 est spécialement conçu et parfaitement adapté à tous les jeux modernes avec des paramètres graphiques élevés et maximum dans une résolution de 1920x1080 et même avec un anti-aliasing plein écran activé par diverses méthodes (FXAA, MFAA ou MSAA).

Et pour ceux qui recherchent des performances encore meilleures avec des écrans ultra-haute résolution, Nvidia propose des cartes graphiques haut de gamme GeForce GTX 1070 et GTX 1080 qui sont également assez bonnes en termes de performances et d'efficacité énergétique. Et pourtant, la combinaison d'un prix bas et de performances suffisantes distingue assez favorablement la GeForce GTX 1060 dans le contexte des solutions plus anciennes. Par rapport à la Radeon RX 480 concurrente, la solution de Nvidia est légèrement plus rapide avec moins de complexité et d'empreinte GPU, et a une efficacité énergétique nettement meilleure. Certes, il est vendu un peu plus cher, donc chaque carte vidéo a son propre créneau.

Examen de la carte vidéo NVIDIA GeForce GTX 780 | Expérience GeForce et ShadowPlay

Expérience GeForce

En tant que passionnés de PC, nous apprécions la combinaison de différents paramètres qui affectent les performances et la qualité des jeux. Le moyen le plus simple est de dépenser une tonne d'argent sur une nouvelle carte graphique et de tout exposer. paramètres graphiques au maximum. Mais lorsqu'un paramètre s'avère trop lourd pour la carte et qu'il doit être réduit ou désactivé, il reste une sensation désagréable et la prise de conscience que le jeu pourrait fonctionner beaucoup mieux.

Cependant, il n'est pas si facile de définir les paramètres optimaux. Certains paramètres produisent de meilleurs visuels que d'autres, et le degré d'impact sur les performances peut varier considérablement. GeForce Experience est l'effort de NVIDIA pour faciliter le choix des paramètres de jeu en comparant votre CPU, GPU et résolution à une base de données de configurations. La deuxième partie de l'utilitaire permet de déterminer si les pilotes ont besoin de mises à jour.

Les passionnés continueront probablement à choisir eux-mêmes les paramètres et percevront négativement le programme supplémentaire. Cependant, la plupart des joueurs qui souhaitent installer le jeu et démarrer immédiatement le jeu sans vérifier les pilotes et parcourir divers paramètres apprécieront certainement cette opportunité. Quoi qu'il en soit, l'expérience GeForce de NVIDIA aide les gens à tirer le meilleur parti de leur jeu et est donc un utilitaire utile pour les jeux sur PC.

GeForce Experience a détecté les neuf jeux installés sur notre système de test. Naturellement, ils n'ont pas conservé les paramètres par défaut, car nous avons appliqué certains paramètres dans l'intérêt des tests. Pourtant, il est intéressant de voir comment GeForce Experience aurait changé les options que nous avons choisies.

Pour Tomb Raider, GeForce Experience voulait désactiver la technologie TressFX même si NVIDIA GeForce GTX 780 avec la fonction activée, il a montré une moyenne de 40 images par seconde. Pour une raison quelconque, le programme n'a pas pu déterminer la configuration Loin de pleurer 3, bien que les réglages qu'elle proposait se soient avérés assez élevés. Pour des raisons inconnues pour Skyrim, l'utilitaire a voulu désactiver FXAA.

C'est bien d'avoir un ensemble de captures d'écran pour chaque jeu décrivant l'impact d'un paramètre particulier sur la qualité de l'image. Sur les neuf exemples que nous avons examinés, GeForce Experience s'est approché des paramètres optimaux, à notre avis. Cependant, l'utilitaire est également biaisé, privilégiant les fonctionnalités spécifiques à NVIDIA comme PhysX (que le programme a poussé haut dans Borderlands 2) et empêchant les fonctionnalités AMD d'être activées (y compris TressFX dans Tomb Raider). Désactiver FXAA dans Skyrim n'a aucun sens, car le jeu fait en moyenne 100 FPS. Il est possible que les passionnés souhaitent installer GeForce Experience après le début des livraisons du système NVIDIA Shield, car le streaming de jeu semble être mis en œuvre via l'application NVIDIA.

ShadowPlay : DVR toujours actif pour les jeux

Les amateurs de WoW enregistrent souvent leurs raids, cependant cela nécessite un système assez puissant, des Fraps et beaucoup d'espace disque.

NVIDIA a récemment annoncé nouvelle fonction ShadowPlay, qui peut grandement simplifier le processus d'enregistrement.

Lorsqu'il est activé, ShadowPlay utilise le décodeur fixe NVEnc intégré du GPU Kepler, qui enregistre automatiquement les 20 dernières minutes de jeu. Alternativement, vous pouvez démarrer et arrêter manuellement ShadowPlay. Ainsi, la technologie remplace les solutions logicielles comme Fraps, qui sollicitent davantage le processeur central.

Pour référence : NVEnc ne fonctionne qu'avec l'encodage H.264 à des résolutions allant jusqu'à 4096x4096 pixels. ShadowPlay n'est pas encore disponible sur le marché, mais NVIDIA dit qu'il sera capable d'enregistrer des vidéos 1080p jusqu'à 30 FPS lors de son lancement cet été. Nous aurions aimé voir une résolution plus élevée car il a été précédemment indiqué que l'encodeur est potentiellement capable de la supporter en matériel.

Examen de la carte vidéo NVIDIA GeForce GTX 780 | GPU Boost 2.0 et problèmes d'overclocking possibles

Boost GPU 2.0

Dans la revue GeForce GTX Titan Nous n'avons pas été en mesure d'effectuer des tests complets de la technologie NVIDIA GPU Boost de deuxième génération, mais nous l'avons maintenant NVIDIA GeForce GTX 780... Voici une brève description de cette technologie :

GPU Boost est un moteur NVIDIA qui ajuste les performances des cartes vidéo en fonction du type de tâche en cours de traitement. Comme vous le savez probablement, les jeux ont des besoins différents en ressources GPU. Historiquement, la fréquence doit être réglée pour le pire des cas. Mais lors du traitement de tâches "légères", le GPU a gaspillé. GPU Boost surveille divers paramètres et augmente ou diminue les fréquences en fonction des besoins de l'application et de la situation actuelle.

La première implémentation GPU Boost fonctionnait sous un certain seuil de puissance (170 W dans le cas de GeForce GTX 680). Cependant, les ingénieurs de la société ont compris qu'ils peuvent dépasser ce niveau en toute sécurité si la température du GPU est suffisamment basse. De cette façon, les performances peuvent être encore optimisées.

En pratique, GPU Boost 2.0 ne diffère que par le fait que NVIDIA accélère désormais la fréquence, non pas en fonction de la limite de consommation électrique, mais à une certaine température, qui est de 80 degrés Celsius. Cela signifie que des valeurs de fréquence et de tension plus élevées seront désormais utilisées pour chauffer la puce à 80 degrés. Gardez à l'esprit que la température dépend principalement du profil et des réglages du ventilateur : plus la vitesse du ventilateur est élevée, plus la température est basse et donc plus la valeur GPU Boost (et le niveau de bruit, malheureusement aussi). La technologie fait toujours une évaluation de la situation toutes les 100 ms, donc NVIDIA a beaucoup à travailler dans les futures versions.

Les paramètres dépendant de la température rendent le processus de test encore plus difficile par rapport à la première version de GPU Boost. Tout ce qui augmente ou diminue la température du GK110 modifie la fréquence de la puce. Par conséquent, il est assez difficile d'obtenir des résultats cohérents entre les exécutions. En conditions de laboratoire, on ne peut qu'espérer une température ambiante stable.

En plus de ce qui précède, il convient de noter que vous pouvez augmenter la limite de température. Par exemple, si vous voulez NVIDIA GeForce GTX 780 abaissé la fréquence et la tension à 85 ou 90 degrés Celsius, cela peut être configuré dans les paramètres.

Vous voulez que le GK110 soit aussi loin que possible de la limite de température que vous avez choisie ? Courbe de ventilateur NVIDIA GeForce GTX 780 entièrement réglable, vous permettant d'ajuster le cycle de service en fonction des valeurs de température.

Problèmes d'overclocking possibles

Lors de notre rencontre avec GeForce GTX Titan les représentants de l'entreprise nous ont montré un utilitaire interne qui peut lire l'état de divers capteurs : de cette façon, il simplifie le processus de diagnostic du comportement non standard des cartes. Si la température du GK110 monte trop haut pendant l'overclocking, même pendant le throttling, cette information sera enregistrée dans le journal.

Désormais, la société implémente cette fonction via l'application Precision X, qui lance l'algorithme d'avertissement « raisons » si, pendant l'overclocking, des actions ont eu lieu qui empêchent sa poursuite effective. C'est une fonctionnalité intéressante car vous n'avez plus à deviner les goulots d'étranglement potentiels. Il existe également une limite OV max, qui vous permettra de savoir si vous avez atteint le pic absolu de la tension GPU. Dans ce cas, il y a un risque de brûler la carte. Vous pouvez considérer cela comme une proposition pour abaisser les paramètres d'overclocking.

Examen de la carte vidéo NVIDIA GeForce GTX 780 | Banc de test et benchmarks


Configuration du banc d'essai
CPU Intel Core i7-3770K ( Pont de lierre) 3,5 GHz à 4,0 GHz (40 * 100 MHz), LGA 1155, 8 Mo de cache L3 partagé, Hyper-Threading activé, Économies d'énergie activées
Carte mère Gigabyte Z77X-UD5H (LGA 1155), chipset Z77 Express, BIOS F15q
RAM G.Skill 16 Go (4 x 4 Go) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 @ 1,5 V
Périphérique de stockage Crucial m4 SSD 256Go SATA 6Go/s
Cartes vidéo Nvidia GeForce GTX 780 3 Go

AMD Radeon HD 7990 6 Go

AMD Radeon HD 7970 GHz Édition 3 Go

Nvidia GeForce GTX 580 1,5 Go

Nvidia GeForce GTX 680 2 Go

Nvidia GeForce GTX Titan 6 Go

Nvidia GeForce GTX 690 4 Go

Source de courant Cooler Master UCP-1000 W
Logiciel système et pilotes
Système d'exploitation Windows 8 Professionnel 64 bits
DirectX DirectX 11
Graphique. Conducteurs AMD Catalyst 13.5 (bêta 2)
Nvidia GeForce version 320.00
Nvidia GeForce version 320.18 (pour GeForce GTX 780)

Obtenir la bonne fréquence d'images

Les lecteurs attentifs remarqueront que les chiffres des pages suivantes sont plus modestes que dans l'enquête. AMD Radeon HD 7990 Et il y a une raison pour ça. Auparavant, nous présentions des fréquences d'images synthétiques et réelles, puis montrions les fluctuations de temps entre les images ainsi que les images perdues et courtes. Le fait est que cette méthode ne reflète pas le sentiment réel du travail de la carte vidéo, et de notre côté, il serait injuste de condamner AMD, en s'appuyant sur des indicateurs synthétiques du décalage entre les images.

C'est pourquoi, en plus des fluctuations de la fréquence d'images, nous proposons désormais des fréquences d'images dynamiques plus pratiques. Les résultats ne sont pas si élevés, mais en même temps ils sont assez éloquents dans les jeux où AMD a des difficultés.

Tests et réglages
Battlefield 3 Qualité graphique - Ultra, v-sync désactivé, 2560x1440, DirectX 11, Going Hunting, 90 secondes, FCAT
Loin de pleurer 3 Qualité graphique - Ultra, DirectX 11, v-sync désactivé, 2560x1440, exécuter un itinéraire personnalisé, 50 secondes, FCAT
Borderlands 2 Qualité graphique - La plus élevée, PhysX Low, Filtrage anisotrope 16x, 2560x1440, Native Run, FCAT
Hitman Absolution Qualité graphique - Ultra, MSAA désactivé, 2560x1440, Benchmark intégré, FCAT
The Elder Scrolls V: Skyrim Qualité graphique - Ultra, FXAA activé, 2560x1440, exécuter un itinéraire personnalisé, 25 secondes, FCAT
3DMark Point de repère sur les incendies
Bioshock Infinite Qualité graphique - Ultra, DirectX 11, Profondeur de champ du diffuseur, 2560x1440, Benchmark intégré, FCAT
Crise 3 Qualité graphique - très élevée, MSAA : faible (2x), textures haute résolution, 2560 x 1440, s'exécute sur son propre itinéraire, 60 secondes, FCAT
Pilleur de tombe Qualité graphique - Ultimate, FXAA activé, filtrage anisotrope 16x, cheveux TressFX, 2560x1440, exécuter un itinéraire personnalisé, 45 secondes, FCAT
LuxMark 2.0 Binaire 64 bits, Version 2.0, Scène Sala
SiSoftware Sandra 2013 Professionnel Sandra Tech Support (Ingénieur) 2013.SP1, Cryptographie, Performance d'analyse financière


TENEUR
2021 wisemotors.ru. Comment ça fonctionne. Le fer. Exploitation minière. Crypto-monnaie.