Les nouvelles innovations technologiques :
Qui dit nouvelle génération dit automatiquement de nombreuses innovations technologiques qui débarquent et cette RTX 4070, comme ses grandes sœurs, les RTX 4090, 4080 et 4070 Ti ne fait pas exception à la règle. Nous allons essayer de vous citer les plus importants dans cette page un peu plus théorique.
Nouvelle architecture Ada Lovelace :
C’est le 21 septembre à 17 heures, que NVIDIA a dévoilé une partie de sa future gamme de cartes graphiques architecturées autour de « ADA Lovelace ». Techniquement, cette puce est hors norme avec ses 76 milliards de transistors, sa gravure en N4 par TSMC, les Shader Execution Reordering, ses 90 TFLOPS, ses 200 RT TFLOPS, ses 1400 Tensor TFLOPS et un maximum de 18432 CUDA Cores dans un même GPU. Autant dire que c’est assez impressionnant face à la génération précédente Ampere.
La puce est organisée en 12 Graphics Processing Clusters (GPC) contenant chacun 72 Textures Processing Clusters (TPC) avec 144 Streaming Multiprocessors (SM). Les Streaming Multiprocessors bénéficient d’une nouvelle technologie appelée Shader Execution Reordering (SER) qui permettent de multiplier par deux les opérations du Ray Tracing. On peut aussi remarquer que la puce de la RTX 4090 est amputée permettant peut-être de voir une future RTX 4090 Ti débarquer.
Ces nouvelles RTX débarquent aussi avec des Tensor Cores de 4ème génération, qui seront bien utiles pour l’IA du DLSS et du DLSS 3 ainsi que des cœurs RT Cores de 3ème génération qui eux permettront de multiplier par deux les performances du Ray Tracing. En plus de l’évolution de génération, leur nombre augmente aussi par rapport à la génération précédente en fonction du modèle.
D’ailleurs, voici un tableau comparatif afin de juger des différences entre ces cartes.
Le DLSS 3 débarque et est déjà opérationnel :
L’une des annonces de NVIDIA lors de sa conférence est l’arrivée du DLSS 3. Attention cependant, celui-ci n’est compatible qu’avec les RTX 4000. Les possesseurs d’une carte de génération précédente se conteront du DLSS 2 que NVIDIA continuera à faire évoluer dans les mois à venir.
Pour rappel, jusqu’à présent, le principe du DLSS (Deep learning super sampling) était de permettre un gain en terme de FPS en remplaçant l’antialiasing TAA. L’idée est de calculer le rendu dans une définition moindre que cela choisie dans les paramètres et ensuite de la repasser dans la définition dite en utilisant une IA appliquée via les Tensor Core tout en conservant une qualité d’image la plus parfaite possible.
Aujourd’hui, avec l’arrivée du DLSS 3, les choses changent même si le principe fondamental d’augmenter le nombre de FPS est toujours la raison principale. La nouveauté vient du principe que le DLSS 3 permet d’ajouter des images intermédiaires entières et non plus des pixels. Cela permet ainsi d’augmenter le nombre d’images par seconde et par conséquence la fluidité. Pour y parvenir, le DLSS3 fait appel notamment à un accélérateur de flux optique intégré à la nouvelle architecture des RTX 4000. C’est la raison pour laquelle les générations précédentes qui n’en sont pas dotées ne pourront pas bénéficier du DLSS 3. Nous devrons donc être attentifs lors de nos tests et comparer ce qui est comparable car oui, bien entendu le DLSS 3 sera plus performant mais difficile de le juger sur la génération Ampere qui ne le supporte pas.
Même si la fonction principale est d’augmenter le nombre de FPS, NVIDIA rappelle aussi l’importance de la latence. Nous avions d’ailleurs traité ce sujet dans cet article en vous parlant de Reflex. Pour résumer simplement, le principe est de faire diminuer au maximum la latence dans les jeux, c’est-à-dire le temps qui s’écoule entre le moment où vous cliquez sur le bouton de votre souris et sa manifestation à l’écran. Afin de pouvoir effectuer tous les relevés, une souris compatible sera nécessaire.
Les dernières avancées de NVIDIA risque de chambouler le monde du l‘e-sport puisque l’on pourrait voir débarquer des écrans 1440p 27″ en lieu et place des écrans actuellement utilisés en 1080p 25″. Pour terminer, sachez que NVIDIA annonce déjà plus de 35 jeux compatibles et prêts à utiliser le DLSS 3. Nous ajouterons bien entendu à nos tests des jeux prenant en charge le DLSS 3. Bien entendu les jeux DLSS 3 sont rétro compatibles avec la technologie DLSS 2.
La compression matériel AV1 :
NVIDIA intègre à présent sa 8ème génération d’encodeur NVENC avec AV1 qui se montre plus efficace de 40% face à H.264. L’arrivée de AV1 sera très utile notamment pour le streaming.
Ce sont des résultat en 1440p, qui me laissent perplexe…!? Déjà qu’elle est vendue a peu de chose le prix d’une 3080 tt en étant 5 à 7% moins cher en 4K. Mais a malgré tout pas loin de 700€, elle est incapable d’utiliser a son plein potentiel un ecran 120 ou 144Hz en 1440p. Tt en étant déjà limite sur quelques titres graphiquement et sur très probablement une bonne moitié au minimum d’ici a peine plus d’un an ! A 500€, des vrais et juste pas écris sur une pub et introuvable en vrai, ça aurait pu passer mais… Lire la suite »
Hello NviDieu, effectivement, ce n’est pas une bonne affaire et je ne pense pas que c’est ce que nous avons laissé sous entendre. Comme expliqué, les bonnes affaires sont à faire maintenant avec les tarifs très attractifs de cartes de la génération précédente chez AMD et NVIDIA. Maintenant, je pense que les stocks commencent vraiment à fondre. Personnellement, je pense que la RTX 4090 était trop puissante et difficile après de conserver une logique qui comme avant disait 100% de perf c’est la 3090Ti, 90% de perf la 3090, 80% de perf 3080 Ti et ainsi de suite… (les %… Lire la suite »
Pour rappel, notre configuration de tests de GPU a été modifiée le 5 octobre (12700KF vers un 12900K) où nous avons donc débuté un repassage de toutes les cartes graphiques à notre disposition au sein du labo. Nous n’avons malheureusement pas la chance de disposer d’un exemplaire de chaque modèle puisque comme vous le savez la plupart des cartes tournent dans les différentes rédactions françaises. Allez savoir pourquoi, mais à ce moment là, nous n’avons pas su trouver d’exemplaire de la RTX 3080 que ce soit chez Asus ou MSI avec qui nous travaillons régulièrement. C’est la raison pour laquelle,… Lire la suite »
C’était vraiment un upgrade nécessaire pour la machine de test ? Vu qu’il ne permet pas plus de faire tourner au moins la 4090 a fond et qu’entre un 12700 et un 12900 il doit y avoir au mieux 2-3% d’écart A part pour vous recollez une grosse série de test pour rien ou presque, l’intérêt d’un tel changement m’échappe. Encore vous l’auriez dit pour un 13900ks, ok pourquoi pas, bien que et encore… Malgré tout merci pour votre travail, car le choix serait encore plus compliqué et risqué sans votre site ainsi que d’autres ! Mais c’est une des… Lire la suite »
Alors, l’upgrade c’est fait pour la simple raison que j’ai rencontré des soucis avec le 12700KF qui ne me détectait plus qu’un slot mémoire sur les deux. Il est passé par la case RMA mais je devais absolument remettre mes graphiques à jours, d’où l’utilisation du 12900K à ce moment là. J’essaye de remettre à jour mes graphiques GPU avec les nouveaux drivers 1 à 2x par an puisqu’on a pu s’appercevoir des améliorations surtout du coté d’AMD. En effet, un 13900KS aurait été aussi parfait mais pas encore disponible en octobre 2022 et la 4090 n’était elle, pas encore… Lire la suite »
Très belle carte d’un point de vue performance/conso mais peut-on mettre un coup de cœur à une carte qui manque déjà de vram pour certains jeux en 1440p (une minorité mais cela va forcément augmenter)…alors qu’elle n’est pas encore sortie ???
Hello Math75. Le coup de coeur est en grande partie car nous sommes enfin sur une carte de la génération RTX 4000 qui bénéficie d’un bon tarif et d’un ration perf/conso très bon. Maintenant, perso, je n’ai rien rencontré comme souci niveau mémoire avec 12 GB en 1440p. Alors oui, effectivement, un jeu ou deux sortis dernièrement risque de poser souci mais est-ce la manque de ram ou de l’optimisation du jeu ? Maintenant, je suis curieux de voir la réponse d’AMD et la quantité de mémoire qu’ils mettront à disposition sur une concurente de la RTX 4070 Ti et… Lire la suite »
Re 🙂
Merci pour la précision. Pour AMD, on peut peut être s’attendre aux perfs des 6800 xt et 6900 xt mais avec une conso bien plus faible. Je suis moi-même actuellement en recherche d’une nouvelle CG (upgrade d’une 1660S) mais je ne sais vraiment pas vers qui me tourner pour du 1440p :/
Cela va dépendre vraiment de ton budget. Y a toujours la RX 6950 XT de chez XFX en promo, qui te permettra même du 2160p en rastérisation et du 1440p RT : https://amzn.to/3mD3w7I
Après, en budget plus bas, ce sera la RTX 4070 ou alors faut partir sur le marché de l’occasion.
Bon finalement je suis faible : j’ai acheté une 4070 ventus 3x 🙂
La 7900xtx en mode custom au vue du prix je vous la conseillerais. J’en suis vraiment pas déçu, sachez que j’ai abandonné ma précommande 2 jours avant l’envoie de 4090 pour cause les cordons qui fondent…
Sachez que je n’ai aucun soucis de drivers ou etc pour le moment ca tourne nickel. ( j’ai passé mes 15 dernières années chez nvidia )
Je ne prend qu’un jeu pour exemple, call of duty me bouffe 16.5 giga de ram en full ?
Avec 12 giga on est limité me semble t »il ?
Dans quelle définition ?
Non il n’y a que sur sa conso et ses dimension qu’elle peu a la limite valoir le coup
Hormis ces 2 points la, elle est environ 200 € trop chère pour mériter plus de compliments !
Une 3080 étant plus puissante de 5 à 7% en 4K et trouvable bien moins chère en occase
Et comme vous le dites elle est déjà juste en VRAM dans certains jeux alors d’ici un an ou deux ….??!
Car a plutôt 700€ qu’autre chose de se trouver déjà limite et limitée à sa sortie c’est inacceptable !
Hello, dans mon cas elle remplace une 1660S dont les ventilateurs ne fonctionnaient plus et que j’ai du brider. Et je voulais une carte compacte pour un petit boitier (nr200p ou fractal Ridge à venir).
Chacun voit son intérêt, j’en suis très satisfait pour ce que je fais actuellement 😉
Je comprends parfaitement ce point de vue, maintenant la carte offre certes les mêmes performances que la 3080 avec le DLSS3 et une consommation moindre et finalement, un prix identique à il y a deux ans, c’est loin d’être mal quand l’on voit la hausse des prix des CPU, des cartes mères quand on est passé de Z590 vers Z690 vers Z790…
La 6800XT est proche avec raytracing et clairement plus performante sans, pour environ 600€ aujourd’hui. Quel est l’intérêt de cette carte ?
Il me semble aussi regrettable de ne comparer que les gains de FPS des différentes technologies d’upscaling, sans jamais parler d’impact sur la qualité d’image. C’est bien beau de faire +70% de FPS mais si ça donne des images complétement flou, personne ne va s’en servir. Le DLSS 3 est-il vraiment intéressant de ce point de vue ?
Hello Ardeling. Remarque très pertinente et juste. Nous allons d’ailleurs proposé un dossier sur cette réflexion. Maintenant pour avoir tester le DLSS3 sur plusieurs jeux à titre perso, je n’ai rien trouvé de choquant même si au final, je préfère jouer directement en rastérisation. En ce qui concerne le prix des RX 6800 XT, tu as totalement raison mais les stocks semblent encore conséquent d’où la baisse des prix et les offres ponctuels.
Merci pour votre réponse, hâte de voir ce dossier ! Et merci pour la qualité globale de vos tests au passage !