Petit tour dans le monde de l’intelligence artificielle où l’on retrouve Blackwell qui se montre en super forme ! Effectivement, les premiers retours évoquent des performances jusqu’à 2,2 fois supérieures à Hopper en entraînement d’IA. Visiblement, le B200 fait vraiment le travail !
B200 : 2,2x plus rapide que Hopper !
Pour se faire une idée de la chose, il faudra regarder les résultats sur MLPerf Training v4.1 (benchmark dans le domaine de l’IA) qui montre que la nouvelle solution de NVIDA est très performante. Ainsi, les résultats affichent des performances plus de deux fois supérieures à au HGX H200 en utilisant le HGX B200 en entraînement de LLM. Sur un pré-entrainement de GPT-3, les scores sont doublés tandis qu’ils font x2,2 Llama 2 70B.
Bien évidemment, dans ce genre de tests, ce ne sont pas qu’un ou deux GPU qui se tirent la bourre, mais plutôt des infrastructures complètes. Ici, nous apprenons que pour la partie réseau, ce sont des cartes réseaux ConnectX-7 (2 000 € la carte) ainsi que des switches Quantum-2 qui sont utilisés pour la communication entre les différents nœuds.
Ensuite, on apprend que là où fallait 256 GPU avec Hopper pour optimiser les performances sur GPT-3 175B, avec Blackwell, il n’en faut plus que 64. Par ailleurs, il faut dire que la nouvelle génération de NVIDIA profite de plus de mémoire avec une meilleure bande passante, des GPU plus performants tandis que la bande passante NVLink progresse également. Tout ceci combiné mène à de gros gains de perfs.