NVIDIA RTX 4070 Founders Edition :
L’architecture :
Pour rappel, les cartes de la série « Founders Edition » sont des modèles uniques proposés par NVIDIA. Le principal avantage de ces cartes est d’être proposé à un tarif « bloqué » et qui ne changera pas dans les semaines ou mois à venir sauf baisse de prix. Cette NVIDIA RTX 4070 Founders Edition est affichée au tarif de 649 euros sur le site de NVIDIA. Les partenaires de NVIDIA proposeront aussi leur propre modèle, mais à un prix supérieur même si NVIDIA annonce un nombre plus important de cartes au tarif MSRP ! Visuellement, NVIDIA a conservé un design similaire aux cartes précédentes avec ici une largeur de 2 slots avec des proportions très intéressantes puisqu’elle trouvera très facilement sa place dans n’importe quel boitier.
Cette RTX 4070 dispose d’un GPU AD104-250 avec 5888 cœurs CUDA soit 1792 cœurs de moins que la RTX 4070 Ti. Elle est dotée un processus de fabrication en 4 nm de TSMC et non pas le 8 nm réalisé par Samsung ce qui permet de redescendre le TGP à 200 watts seulement.
Niveau mémoire, on retrouve 12 GB de mémoire GDDR6X en 192-bit, ce qui se traduit par une bande passante de 504 GB/s. La vitesse de cette RTX 4070 devrait se montrer légèrement plus rapide que la RTX 3080 selon NVIDIA tout en consommant moins. À la page quatre de notre article, nous reviendrons en détails sur les nouveautés apportées par cette nouvelle architecture, dont notamment le support du DLSS 3.
Le bundle de cette Founders Edition :
Alors que retrouve-t-on dans cette imposante boite ? Comme à son habitude, NVIDIA a particulièrement soigné le packaging de sa carte en proposant une boite cartonnée où se dissimule l’exemplaire de la RTX 4070 FE. C’est d’ailleurs toujours très excitant de découvrir le nouveau packaging proposé par NVIDIA lors de l’arrivée d’une nouvelle génération.
La boite est tout simplement immense avec des dimensions de 395 x 195 x 192 mm.
La boite s’ouvre par l’avant afin de dévoiler la RTX 4070 Founders Edition. Une fois celle-ci ôtée, on retrouve une petite boite qui contient l’adaptateur pour l’alimentation de la carte.
En bundle, on retrouve un adaptateur 16-pin (12 + 4) vers deux 8-pins de 150 w (300 w au total). Cet adaptateur est nécessaire pour ceux qui ne disposent pas d’une alimentation disposant d’un port 16-pin ou de l’adaptateur propre à leur alimentation.
Sachez que NVIDIA est le seul fournisseur d’adaptateur et c’est donc lui qui le fourni à ses partenaires. Nous avons d’ailleurs reçu de notre côté le connecteur 12 + 4 pins de chez Corsair ainsi que celui proposé par be quiet! qui s’alimente directement sur l’alimentation.
Le refroidissement :
NVIDIA a conservé le principe de refroidissement de la génération précédente et qui a fait ses preuves. Les ventilateurs sont des modèles de 92 mm chargés de tenir au frais le radiateur en contact avec la puce graphique ainsi que les différents composants du PCB. Les ventilateurs noirs disposent de 7 pales et resteront au repos lorsque la carte n’est pas sollicitée et que la température reste inférieure à 35 °C. Personnellement, c’est un format très intéressant et passe-partout, tandis que la finition apportée à la carte n’a rien à envier aux marques partenaires de NVIDIA.
L’objectif est, comme pour tout système de refroidissement, de maintenir le GPU au frais tout en produisant des nuisances sonores les moins perceptibles. NVIDIA a donc eu l’idée d’utiliser deux ventilateurs mais placés de part et d’autre de la carte graphique. Celui de gauche aspire l’air au sein de votre boitier et est ensuite expulsé par l’arrière de la carte.
L’autre ventilateur, situé à droite, aspire lui aussi l’air de votre boitier afin de dissiper la chaleur de la chambre à vapeur avant d’être expulsé en position haute, toujours au sein de votre boitier. Inutile de dire que vous devrez opter pour une bonne circulation de l’air au sein de votre boitier si vous désirez maintenir vos composants à de fraîches températures.
Les connectiques :
Pour alimenter la carte, on retrouve le nouveau mini-connecteurs 16-pin. Comme nous l’avons signalé plus haut, NVIDIA fourni dans son bundle un adaptateur permettant d’y brancher trois connecteurs 8-pins.
La carte dispose, au niveau des sorties vidéos de trois DisplayPort 1.4 et d’un port HDMI 2.1.
Ce sont des résultat en 1440p, qui me laissent perplexe…!? Déjà qu’elle est vendue a peu de chose le prix d’une 3080 tt en étant 5 à 7% moins cher en 4K. Mais a malgré tout pas loin de 700€, elle est incapable d’utiliser a son plein potentiel un ecran 120 ou 144Hz en 1440p. Tt en étant déjà limite sur quelques titres graphiquement et sur très probablement une bonne moitié au minimum d’ici a peine plus d’un an ! A 500€, des vrais et juste pas écris sur une pub et introuvable en vrai, ça aurait pu passer mais… Lire la suite »
Hello NviDieu, effectivement, ce n’est pas une bonne affaire et je ne pense pas que c’est ce que nous avons laissé sous entendre. Comme expliqué, les bonnes affaires sont à faire maintenant avec les tarifs très attractifs de cartes de la génération précédente chez AMD et NVIDIA. Maintenant, je pense que les stocks commencent vraiment à fondre. Personnellement, je pense que la RTX 4090 était trop puissante et difficile après de conserver une logique qui comme avant disait 100% de perf c’est la 3090Ti, 90% de perf la 3090, 80% de perf 3080 Ti et ainsi de suite… (les %… Lire la suite »
Pour rappel, notre configuration de tests de GPU a été modifiée le 5 octobre (12700KF vers un 12900K) où nous avons donc débuté un repassage de toutes les cartes graphiques à notre disposition au sein du labo. Nous n’avons malheureusement pas la chance de disposer d’un exemplaire de chaque modèle puisque comme vous le savez la plupart des cartes tournent dans les différentes rédactions françaises. Allez savoir pourquoi, mais à ce moment là, nous n’avons pas su trouver d’exemplaire de la RTX 3080 que ce soit chez Asus ou MSI avec qui nous travaillons régulièrement. C’est la raison pour laquelle,… Lire la suite »
C’était vraiment un upgrade nécessaire pour la machine de test ? Vu qu’il ne permet pas plus de faire tourner au moins la 4090 a fond et qu’entre un 12700 et un 12900 il doit y avoir au mieux 2-3% d’écart A part pour vous recollez une grosse série de test pour rien ou presque, l’intérêt d’un tel changement m’échappe. Encore vous l’auriez dit pour un 13900ks, ok pourquoi pas, bien que et encore… Malgré tout merci pour votre travail, car le choix serait encore plus compliqué et risqué sans votre site ainsi que d’autres ! Mais c’est une des… Lire la suite »
Alors, l’upgrade c’est fait pour la simple raison que j’ai rencontré des soucis avec le 12700KF qui ne me détectait plus qu’un slot mémoire sur les deux. Il est passé par la case RMA mais je devais absolument remettre mes graphiques à jours, d’où l’utilisation du 12900K à ce moment là. J’essaye de remettre à jour mes graphiques GPU avec les nouveaux drivers 1 à 2x par an puisqu’on a pu s’appercevoir des améliorations surtout du coté d’AMD. En effet, un 13900KS aurait été aussi parfait mais pas encore disponible en octobre 2022 et la 4090 n’était elle, pas encore… Lire la suite »
Très belle carte d’un point de vue performance/conso mais peut-on mettre un coup de cœur à une carte qui manque déjà de vram pour certains jeux en 1440p (une minorité mais cela va forcément augmenter)…alors qu’elle n’est pas encore sortie ???
Hello Math75. Le coup de coeur est en grande partie car nous sommes enfin sur une carte de la génération RTX 4000 qui bénéficie d’un bon tarif et d’un ration perf/conso très bon. Maintenant, perso, je n’ai rien rencontré comme souci niveau mémoire avec 12 GB en 1440p. Alors oui, effectivement, un jeu ou deux sortis dernièrement risque de poser souci mais est-ce la manque de ram ou de l’optimisation du jeu ? Maintenant, je suis curieux de voir la réponse d’AMD et la quantité de mémoire qu’ils mettront à disposition sur une concurente de la RTX 4070 Ti et… Lire la suite »
Re 🙂
Merci pour la précision. Pour AMD, on peut peut être s’attendre aux perfs des 6800 xt et 6900 xt mais avec une conso bien plus faible. Je suis moi-même actuellement en recherche d’une nouvelle CG (upgrade d’une 1660S) mais je ne sais vraiment pas vers qui me tourner pour du 1440p :/
Cela va dépendre vraiment de ton budget. Y a toujours la RX 6950 XT de chez XFX en promo, qui te permettra même du 2160p en rastérisation et du 1440p RT : https://amzn.to/3mD3w7I
Après, en budget plus bas, ce sera la RTX 4070 ou alors faut partir sur le marché de l’occasion.
Bon finalement je suis faible : j’ai acheté une 4070 ventus 3x 🙂
La 7900xtx en mode custom au vue du prix je vous la conseillerais. J’en suis vraiment pas déçu, sachez que j’ai abandonné ma précommande 2 jours avant l’envoie de 4090 pour cause les cordons qui fondent…
Sachez que je n’ai aucun soucis de drivers ou etc pour le moment ca tourne nickel. ( j’ai passé mes 15 dernières années chez nvidia )
Je ne prend qu’un jeu pour exemple, call of duty me bouffe 16.5 giga de ram en full ?
Avec 12 giga on est limité me semble t »il ?
Dans quelle définition ?
Non il n’y a que sur sa conso et ses dimension qu’elle peu a la limite valoir le coup
Hormis ces 2 points la, elle est environ 200 € trop chère pour mériter plus de compliments !
Une 3080 étant plus puissante de 5 à 7% en 4K et trouvable bien moins chère en occase
Et comme vous le dites elle est déjà juste en VRAM dans certains jeux alors d’ici un an ou deux ….??!
Car a plutôt 700€ qu’autre chose de se trouver déjà limite et limitée à sa sortie c’est inacceptable !
Hello, dans mon cas elle remplace une 1660S dont les ventilateurs ne fonctionnaient plus et que j’ai du brider. Et je voulais une carte compacte pour un petit boitier (nr200p ou fractal Ridge à venir).
Chacun voit son intérêt, j’en suis très satisfait pour ce que je fais actuellement 😉
Je comprends parfaitement ce point de vue, maintenant la carte offre certes les mêmes performances que la 3080 avec le DLSS3 et une consommation moindre et finalement, un prix identique à il y a deux ans, c’est loin d’être mal quand l’on voit la hausse des prix des CPU, des cartes mères quand on est passé de Z590 vers Z690 vers Z790…
La 6800XT est proche avec raytracing et clairement plus performante sans, pour environ 600€ aujourd’hui. Quel est l’intérêt de cette carte ?
Il me semble aussi regrettable de ne comparer que les gains de FPS des différentes technologies d’upscaling, sans jamais parler d’impact sur la qualité d’image. C’est bien beau de faire +70% de FPS mais si ça donne des images complétement flou, personne ne va s’en servir. Le DLSS 3 est-il vraiment intéressant de ce point de vue ?
Hello Ardeling. Remarque très pertinente et juste. Nous allons d’ailleurs proposé un dossier sur cette réflexion. Maintenant pour avoir tester le DLSS3 sur plusieurs jeux à titre perso, je n’ai rien trouvé de choquant même si au final, je préfère jouer directement en rastérisation. En ce qui concerne le prix des RX 6800 XT, tu as totalement raison mais les stocks semblent encore conséquent d’où la baisse des prix et les offres ponctuels.
Merci pour votre réponse, hâte de voir ce dossier ! Et merci pour la qualité globale de vos tests au passage !