Pénurie de H100 Lamini se moque et met en avant AMD !

1

Les GPU H100 et A100 de NVIDIA ont un sérieux succès dans le domaine de l’intelligence artificielle. La marque expédie des cargos entiers de cartes, mais le vent commence à tourner et on apprend que les cartes sont victime de leur succès. Effectivement, une pénurie se profile à l’horizon et les délais de livraison explosent, on parle d’un an d’attente ! Pour cette raison, la PDG de l’entreprise Lamini, une startup spécialisée dans l’IA et les modèles LLM se moque de la présentation de NVIDIA dans une vidéo.

Lamini se moque de NVIDIA et de ses H100 dans un vidéo ! 

Dans sa vidéo, nous y découvrons Sharon Zhou, PDG et cofondatrice de Lamini, dans une cuisine. Cette dernière ouvre le four pour voir ce qui se prépare, malheureusement rien de prêt avant 52 semaines. Puis elle se dirige sur la terrasse pour y sortir une RADEON Instinct du barbecue. Bref, toute cette mise en scène est une manière de tourner en dérision la présentation des A100 faite par Jensen Huang dans sa cuisine. De plus, le délai de 52 semaines évoqué dans la vidéo fait référence à l’année à attendre pour se procurer une des cartes des verts.

On comprend tout de suite le but de la vidéo : promouvoir la disponibilité immédiate des cartes d’AMD. De plus, l’entreprise fonctionne avec du matériel AMD (en plus d’être partenaire) depuis quelque temps déjà. Par ailleurs, sachez aussi que Lamini propose des modèles LLM personnalisés pour le monde de l’entreprise. Cela peut être rassurant pour leur client de savoir qu’en cas de besoin, la startup peut rapidement adapter son matériel sans délai d’attente interminable.

Publicité

RADEON Instinct Mi250 vs NVIDIA H100

Quant au matériel d’AMD, on retiendra que les Mi250 affiche 128 Go de mémoire HBM2e. Les performances en computing sont données à 362 TFLOP en FP16 contre 383 TFLOP pour la Mi250x. À titre de comparaison, la H100 de NVIDIA met en avant un maximum de 94 Go suivant la version. Quant aux performances, elles affichent 312 TFLOP en FP16 avec des pics à 624 TFLOP suivant les scénarios. Sur le papier, nous avons donc des cartes tout à fait capables du côté d’AMD bien que l’offre de NVIDIA reste plus performante. Quant au prix, on retrouve de la Mi250 à près de 13 000 € contre plus de $30 000 pour la H100 de NVIDIA. Sacré ratio prix/TFLOP du côté d’AMD.

À voir comment le marché va réagir, mais il n’est pas improbable qu’AMD vende la carte prochainement. L’IA est un secteur qui croît rapidement et il est peu probable que des entreprises attendent un an avant que les H100 n’arrivent chez eux. Comme on dit, faute de merles, on mange des grives !

S’abonner
Notifier de
guest

1 Commentaire
Newest
Oldest Most Voted
Inline Feedbacks
Voir tous les commentaires
merlu
merlu
1 octobre 2023 0h40

Faute de grives, l’on se contente de merles !