Test : NVIDIA RTX 4070 Founders Edition

19

NVIDIA RTX 4070 Founders Edition :

L’architecture :

Pour rappel, les cartes de la série « Founders Edition » sont des modèles uniques proposés par NVIDIA. Le principal avantage de ces cartes est d’être proposé à un tarif « bloqué » et qui ne changera pas dans les semaines ou mois à venir sauf baisse de prix. Cette NVIDIA RTX 4070 Founders Edition est affichée au tarif de 649 euros sur le site de NVIDIA. Les partenaires de NVIDIA proposeront aussi leur propre modèle, mais à un prix supérieur même si NVIDIA annonce un nombre plus important de cartes au tarif MSRP ! Visuellement, NVIDIA a conservé un design similaire aux cartes précédentes avec ici une largeur de 2 slots avec des proportions très intéressantes puisqu’elle trouvera très facilement sa place dans n’importe quel boitier.

Cette RTX 4070 dispose d’un GPU AD104-250 avec 5888 cœurs CUDA soit 1792 cœurs de moins que la RTX 4070 Ti. Elle est dotée un processus de fabrication en 4 nm de TSMC et non pas le 8 nm réalisé par Samsung ce qui permet de redescendre le TGP à 200 watts seulement.

Niveau mémoire, on retrouve 12 GB de mémoire GDDR6X en 192-bit, ce qui se traduit par une bande passante de 504 GB/s. La vitesse de cette RTX 4070 devrait se montrer légèrement plus rapide que la RTX 3080 selon NVIDIA tout en consommant moins. À la page quatre de notre article, nous reviendrons en détails sur les nouveautés apportées par cette nouvelle architecture, dont notamment le support du DLSS 3.

 

Publicité

Le bundle de cette Founders Edition :

Alors que retrouve-t-on dans cette imposante boite ? Comme à son habitude, NVIDIA a particulièrement soigné le packaging de sa carte en proposant une boite cartonnée où se dissimule l’exemplaire de la RTX 4070 FE. C’est d’ailleurs toujours très excitant de découvrir le nouveau packaging proposé par NVIDIA lors de l’arrivée d’une nouvelle génération.

La boite est tout simplement immense avec des dimensions de 395 x 195 x 192 mm.
La boite s’ouvre par l’avant afin de dévoiler la RTX 4070 Founders Edition. Une fois celle-ci ôtée, on retrouve une petite boite qui contient l’adaptateur pour l’alimentation de la carte.

En bundle, on retrouve un adaptateur 16-pin (12 + 4) vers deux 8-pins de 150 w (300 w au total). Cet adaptateur est nécessaire pour ceux qui ne disposent pas d’une alimentation disposant d’un port 16-pin ou de l’adaptateur propre à leur alimentation.

Sachez que NVIDIA est le seul fournisseur d’adaptateur et c’est donc lui qui le fourni à ses partenaires. Nous avons d’ailleurs reçu de notre côté le connecteur 12 + 4 pins de chez Corsair ainsi que celui proposé par be quiet! qui s’alimente directement sur l’alimentation.

 

Le refroidissement :

NVIDIA a conservé le principe de refroidissement de la génération précédente et qui a fait ses preuves. Les ventilateurs sont des modèles de 92 mm chargés de tenir au frais le radiateur en contact avec la puce graphique ainsi que les différents composants du PCB. Les ventilateurs noirs disposent de 7 pales et resteront au repos lorsque la carte n’est pas sollicitée et que la température reste inférieure à 35 °C. Personnellement, c’est un format très intéressant et passe-partout, tandis que la finition apportée à la carte n’a rien à envier aux marques partenaires de NVIDIA.

L’objectif est, comme pour tout système de refroidissement, de maintenir le GPU au frais tout en produisant des nuisances sonores les moins perceptibles. NVIDIA a donc eu l’idée d’utiliser deux ventilateurs mais placés de part et d’autre de la carte graphique. Celui de gauche aspire l’air au sein de votre boitier et est ensuite expulsé par l’arrière de la carte.

L’autre ventilateur, situé à droite, aspire lui aussi l’air de votre boitier afin de dissiper la chaleur de la chambre à vapeur avant d’être expulsé en position haute, toujours au sein de votre boitier. Inutile de dire que vous devrez opter pour une bonne circulation de l’air au sein de votre boitier si vous désirez maintenir vos composants à de fraîches températures.

 

Les connectiques :

Pour alimenter la carte, on retrouve le nouveau mini-connecteurs 16-pin. Comme nous l’avons signalé plus haut, NVIDIA fourni dans son bundle un adaptateur permettant d’y brancher trois connecteurs 8-pins.

La carte dispose, au niveau des sorties vidéos de trois DisplayPort 1.4 et d’un port HDMI 2.1.

S’abonner
Notifier de
guest

19 Commentaires
Newest
Oldest Most Voted
Inline Feedbacks
Voir tous les commentaires
NviDieu
NviDieu
15 avril 2023 14h16

Ce sont des résultat en 1440p, qui me laissent perplexe…!? Déjà qu’elle est vendue a peu de chose le prix d’une 3080 tt en étant 5 à 7% moins cher en 4K. Mais a malgré tout pas loin de 700€, elle est incapable d’utiliser a son plein potentiel un ecran 120 ou 144Hz en 1440p. Tt en étant déjà limite sur quelques titres graphiquement et sur très probablement une bonne moitié au minimum d’ici a peine plus d’un an ! A 500€, des vrais et juste pas écris sur une pub et introuvable en vrai, ça aurait pu passer mais… Lire la suite »

NviDieu
NviDieu
15 avril 2023 14h21
Répondre à  CornerJack

C’était vraiment un upgrade nécessaire pour la machine de test ? Vu qu’il ne permet pas plus de faire tourner au moins la 4090 a fond et qu’entre un 12700 et un 12900 il doit y avoir au mieux 2-3% d’écart A part pour vous recollez une grosse série de test pour rien ou presque, l’intérêt d’un tel changement m’échappe. Encore vous l’auriez dit pour un 13900ks, ok pourquoi pas, bien que et encore… Malgré tout merci pour votre travail, car le choix serait encore plus compliqué et risqué sans votre site ainsi que d’autres ! Mais c’est une des… Lire la suite »

Last edited 1 année il y a by NviDieu
Math75
Math75
12 avril 2023 15h40

Très belle carte d’un point de vue performance/conso mais peut-on mettre un coup de cœur à une carte qui manque déjà de vram pour certains jeux en 1440p (une minorité mais cela va forcément augmenter)…alors qu’elle n’est pas encore sortie ???

Math75
Math75
12 avril 2023 19h28
Répondre à  CornerJack

Re 🙂
Merci pour la précision. Pour AMD, on peut peut être s’attendre aux perfs des 6800 xt et 6900 xt mais avec une conso bien plus faible. Je suis moi-même actuellement en recherche d’une nouvelle CG (upgrade d’une 1660S) mais je ne sais vraiment pas vers qui me tourner pour du 1440p :/

Math75
Math75
13 avril 2023 18h45
Répondre à  CornerJack

Bon finalement je suis faible : j’ai acheté une 4070 ventus 3x 🙂

nibiru
nibiru
13 avril 2023 19h04
Répondre à  Math75

La 7900xtx en mode custom au vue du prix je vous la conseillerais. J’en suis vraiment pas déçu, sachez que j’ai abandonné ma précommande 2 jours avant l’envoie de 4090 pour cause les cordons qui fondent…
Sachez que je n’ai aucun soucis de drivers ou etc pour le moment ca tourne nickel. ( j’ai passé mes 15 dernières années chez nvidia )

nibiru
nibiru
13 avril 2023 19h02
Répondre à  CornerJack

Je ne prend qu’un jeu pour exemple, call of duty me bouffe 16.5 giga de ram en full ?

Avec 12 giga on est limité me semble t »il ?

NviDieu
NviDieu
15 avril 2023 14h33
Répondre à  Math75

Non il n’y a que sur sa conso et ses dimension qu’elle peu a la limite valoir le coup
Hormis ces 2 points la, elle est environ 200 € trop chère pour mériter plus de compliments !
Une 3080 étant plus puissante de 5 à 7% en 4K et trouvable bien moins chère en occase
Et comme vous le dites elle est déjà juste en VRAM dans certains jeux alors d’ici un an ou deux ….??!
Car a plutôt 700€ qu’autre chose de se trouver déjà limite et limitée à sa sortie c’est inacceptable !

Last edited 1 année il y a by NviDieu
Math75
Math75
15 avril 2023 19h31
Répondre à  NviDieu

Hello, dans mon cas elle remplace une 1660S dont les ventilateurs ne fonctionnaient plus et que j’ai du brider. Et je voulais une carte compacte pour un petit boitier (nr200p ou fractal Ridge à venir).
Chacun voit son intérêt, j’en suis très satisfait pour ce que je fais actuellement 😉

Ardeling
Ardeling
12 avril 2023 15h23

La 6800XT est proche avec raytracing et clairement plus performante sans, pour environ 600€ aujourd’hui. Quel est l’intérêt de cette carte ?

Il me semble aussi regrettable de ne comparer que les gains de FPS des différentes technologies d’upscaling, sans jamais parler d’impact sur la qualité d’image. C’est bien beau de faire +70% de FPS mais si ça donne des images complétement flou, personne ne va s’en servir. Le DLSS 3 est-il vraiment intéressant de ce point de vue ?

Last edited 1 année il y a by Ardeling
Ardeling
Ardeling
12 avril 2023 19h46
Répondre à  CornerJack

Merci pour votre réponse, hâte de voir ce dossier ! Et merci pour la qualité globale de vos tests au passage !