Conclusion
Dans ce dossier, nous avons fait le tour des différentes unités d’un GPU, chose que nous avons volontairement survolée dans notre premier tome du guide technique. Vous savez maintenant comment une image est crée par le GPU et est transférée puis affichée par l’écran. Mais outre créer des images, la carte graphique est une unité de calcul avec un très fort potentiel, que ce soit pour l’applicatif ou le minage Bitcoin/Litecoin. C’est la que la puissance de calcul brute d’une carte a une très forte importance.
Une petite explication des différentes connectiques permet également de voir lesquelles privilégier. Qu’utilisez-vous pour câbler votre carte à votre écran ?
Quels besoins avez-vous de votre carte graphique ? Nous attendons vos commentaires.
Super guide ! Merci beaucoup 🙂
J’aurais néanmoins une petite question :
Si j’ai bien compris, l’image est créée par la CG et transmise via un câble à l’écran qui transforme ce signal en pixels. (en gros)
La fréquence maximale des câbles présentés est de 120Hz. J’imagine que cela signifie que 120 images/s peuvent transiter via ce câble, corrigez-moi si je me trompe.
Dans ce cas, pourquoi existe-t-il des écrans 144Hz ? D’où sortent les 24 autres images ?
Merci
Alors en fait, si tu branches ton écran avec un cable numérique, des données binaires sont transmises à l’écran, qui se charge de l’afficher (sous forme de pixels). Si tu le branche avec un câble analogique, dans ce cas ta carte graphique transforme le flux binaire numérique en signal analogique. L’écran reçoit alors ce signal analogique et le transforme en flux binaire numérique. Cette double transformation rée une (grosse) perte de qualité.
Ensuite concernant la fréquence, pour profiter du 144 Hz, il faudra impérativement brancher l’écran en Display Port ou en DVI, l’HDMI étant limité à 120 Hz
Le Display Port n’est pas limité à 120Hz ?
Comment réussir à faire comprendre à tout le monde des termes réservés aux utilisateurs confirmés ? Pas évident, et pourtant OMF l’a fait.
Merci.
Je serais intéressé par les avantages d’utiliser plusieurs cartes graphiques (SLI ou CrossFire) et leurs désavantages. Est-ce que la quantité de mémoire vidéo se cumule ? Est-ce que la calcul de la physique (ou l’IA) déportée est plus efficace ? Bref, plein de questions… 😉
Petit début de réponse, la mémoire ne se cumule malheureusement pas ^^