C’est une question qui nous a été posée dans le cadre de nos articles sur les RX 7800 XT. Est-ce que si je passe d’un écran avec une définition de 2560 x 1440p à un écran en 3440 x 1440p, vais-je avoir une perte de FPS ? La réponse est oui, mais nous avons voulu quantifier. Une fois de plus, nous nous sommes tournés vers notre communauté Discord.
L’un de nos membres actifs, Muut, dispose chez lui d’un écran LG 27GN850B et d’un Alienware AW3420DWF. Il s’est donc proposé de réaliser le benchmark de Cyberpunk 2077 avec sa configuration basée sur un i9-13900K à 5.5 GHz, un kit mémoire DDR5 à 8000 MT/s CL36 ainsi qu’une NVIDIA RTX 4090. Voici les résultats qu’il a obtenu sur les deux écrans.
Sans DLSS, la moyenne de FPS est de 78,39 FPS en 2560 x 1440p et tombe à 61,29 FPS en 3440 x 1440p. Si l’on active le DLSS 3, la moyenne de FPS est de 196,34 FPS en 2560 x 1440p et tombe à 160,81 FPS en 3440 x 1440p. Comme vous pouvez le constater, l’impact est assez fort et vous devrez en tenir compte si vous décidiez d’acquérir un écran avec ce type de définition. Merci à Muut pour le temps passé à réaliser ce benchmark et n’hésitez pas à nous rejoindre sur Discord.
Non mais en fait c’est inutile.
Poser ce genre de question en soit est une preuve d’ignorance totale et d’un manque de bon sens…
Augmentation de résolution = baisse de FPS à reglage identique.
Quelque soit la configuration le résultat sera le même.
Oui et avec toutes les cartes graphiques, la résolution c’est ce qui consomme le plus.
L’idée est louable mais bien trop peu représentative (un seul utilisateur sur un seul jeu avec un seul GPU et qui plus est une 4090)
Il faut s’orienter vers des sites disposant d’une bonne base de tests comparatifs pour savoir comment se comportera son gpu si on passe sur un écran plus grand.
Je donnerai pas de nom de concurrent ici mais en cherchant un peu on trouvera par exemple un site qui commence par tech… qui permet d’avoir de bons graphiques en 1080/1440/2016 pour se donner un ordre d’idée.
ta pas besoin de 50 config 50 utilisateur tu perd +-(5) 25% sauf si ta pas assez de vram
tout façon la question était es ce qu’ on perd en perf entre Perte de FPS entre 2560 x 1440p et 3440 x 1440p ? la réponse est oui
Bien entendu, ce n’est pas suffisament représentable, mais ici, l’idée était de répondre à une question posée par un visiteur du site 😉
Sauf erreur le site en question parle de 1080p, 1440p et 2160p mais ne mentionne pas le passage d’un écran classique à un écran ultra wide en 1440p.
Avec une 3070 je trouve comme Muut : 20% d’écart entre QHD et UWQHD ce qui est mieux que le score théorique de 25.5% (3440×1440 a 25.5% de pixels en plus que 2560×1440) donc je suppose qu’on peut dire merci à DLSS (ou autre optimisation) pour les 5.5%. Mais c’est vrai que Cyberpunk et une 4090 à presque 200FPS ne forment pas une base représentative, car en dehors du bench certaines zones extrême de Cyberpunk peuvent saturer les 8Go de VRAM de ma 3070 (et de beaucoup d’autres cartes) alors que les 24Go de la 4090 sont loin au dessus… Lire la suite »
Arrête de te la péter avec ta 3070