Nvidia (et l’administration US) repensent de manière dynamique leur stratégie concernant la Chine. Les restrictions sur les puces stratégiques destinées à l’IA se sont assouplies. Nvidia semble maintenant vouloir appliquer une politique tarifaire agressive sur ses puces H200. L’objectif est de reprendre des parts de marché évidemment, mais également de ralentir la progression de l’industrie chinoise dans les puces IA.
Plusieurs médias chinois semblent avoir eu accès à la nouvelle stratégie de Nvidia. Ainsi, ces derniers ont estimé que le prix d’un cluster de huit puces H200 AI serait de 200 000 $, un tarif similaire à celui d’une configuration H20 comparable. La puce H200 AI est bien plus élaborée et a des performances estimées à plus de six fois supérieures. NVIDIA compte ainsi rendre la H200 beaucoup plus compétitive sur le marché chinois. Mais surtout, avec un prix très agressif, les clients chinois ne se poseront plus de questions au regard de la production locale. Voici quelques comparaisons techniques des deux solutions :
| Détails | NVIDIA H20 | NVIDIA H200 | Gains estimés (H200 → H20) |
|---|---|---|---|
| Architecture | Hopper (export-limited variant) | Hopper | — |
| Process Node | TSMC 4N | TSMC 4N | — |
| HBM Type | HBM3 | HBM3E | — |
| HBM Capacity | ~96 GB | 141 GB | ≈ +47% capacity |
| HBM Bandwidth | ~4.0 TB/s | 4.8 TB/s | ≈ +20% bandwidth |
| Intended Use Case | Inference-focused (restricted training) | Full training + inference + HPC | Functional uplift |
| Compute Throughput (FP8 / FP16) | Significantly reduced vs H100 (export-compliant) | Similar to H100-class, full Hopper capability | Substantial uplift |
| PCIe / SXM Form Factors | PCIe versions only (typically) | PCIe + SXM | — |
| NVLink Support | Restricted / limited | Full NVLink | Major system-level uplift |
| Typical Deployment | China-compliant LLM inference | Global training & inference at scale | — |
Alors que jusqu’ici plusieurs rumeurs rapportaient un certain dédain du marché chinois pour cette nouvelle version des puces Nvidia, un article du Taiwan Economic Daily rapporte que des mastodontes chinois engagés dans l’intelligence artificielle comme Alibaba, Tencent et ByteDance prévoiraient d’importants investissements suite à l’obtention d’un accès aux GPU H200. Au global, une enveloppe budgétaire pouvant s’élever à 31 milliards de dollars destinée à l’infrastructure, essentiellement constituée d’équipements adaptés fournis par NVIDIA et AMD est évoquée.
Nvidia pourrait procéder aux premières livraisons dès le mois de février 2026.


