Tesla V100S : nVidia lance une nouvelle variante de sa Tesla V100

0
339

Direction nVidia et le secteur des supercomputers et autres clusters avec une nouvelle variante de la Tesla V100. En effet, les verts lancent la Tesla V100s qui reprend les mêmes caractéristiques que le premier modèle. Les changements opèrent au niveau de la VRAM et des fréquences.

Tesla V100s : la même, mais plus rapide et avec plus de VRAM ! 

nVidia Tesla V100 PCIe - Tesla V100s
La version PCIe de la carte.

Pour rappel, la Tesla V100 utilisait un GPU Volta gravé en 12 nm. Le GPU était complet avec 5120 cuda core cadencés à 1533 MHz en boost dans le meilleur des cas. Cela nous faisait donc une puissance max en FP32 de 15.7 TFLOP. Côté mémoire elle avait 16 ou 32 Go de HBM2 sur un bus de 4096 bits. La fréquence de la HBM permettait à la V100 d’atteindre les 900 Go/s de bande passante. Elle avait 3 variantes différentess :

  • PCI-e FHHL (demi-longueur et single slot) avec TDP de 150W
  • PCI-e classique (full longueur et dual slot) avec TDP de 250W
  • SMX2 avec TDP de 300 W

Voilà pour le rappel de la V100 existante.

Maintenant que tout ceci est dit, on passe à la suite : la Tesla V100s. Finalement, qu’offre-t-elle de plus que les premiers modèles ? Et bien pas grand-chose. Effectivement, on peut compter sur une carte disponible avec 32 Go de HBM2 uniquement et des fréquence revues à la hausse.

Regardons ces fréquences dans le détail. La fréquence GPU (et donc le nombre de TFLOPs) gagne 4%. Elle atteint 1601 MHz pour une puissance de 16.4 TFLOPs. Mais surtout sur la HBM, la fréquence mémoire gagne 26 % avec 2214 MHz, ce qui permet à la bande passante d’atteindre 1134 Go/s.

Pour l’instant, le prix est inconnu. D’ailleurs, on s’attend à ce que ce dernier soit nettement supérieur à celui de la V100 qui était de $5850 pour sa version PCIe en 16 Go de VRAM. Car les 16 Go supplémentaires en HBM ne sont pas gratuits.

Poster un Commentaire

avatar
  S’abonner  
Notifier de