中国への輸出が許可になったNVIDIAのデータセンター・AI向け上位GPU、「NVIDIA H200」とはどのようなものなのか。性能スペック、前世代(H100)との比較、および市場価格(購入・クラウドレンタル)について情報をまとめる。
1.主な性能・スペック
H200は、前世代の「Hopper」アーキテクチャを引き継ぎつつ、主にメモリ容量と帯域幅(通信速度)を大幅に強化したモデルで、これにより大規模言語モデル(LLM)の推論やトレーニングでボトルネックになりがちだった「メモリの壁」を打破している。
• アーキテクチャ:Hopper(4nmプロセス)
• VRAM(グラフィックスメモリ):141GB HBM3e
◦ HBM3eという、より高速な超広帯域メモリをGPUとして世界で初めて採用している。
• メモリ帯域幅:4.8 TB/s
• 主な演算性能
◦ FP8 / INT8:1,979 TFLOPS(TOPS)
◦ FP16 Tensor:989 TFLOPS
◦ FP32(単精度):67 TFLOPS
• 最大消費電力(TDP):00W(SXMモデル)/ 約350〜600W(NVL / PCIeモデル)
【重要】H100との比較から見る強み
純粋な演算コアの基本性能(TFLOPS)自体はH100とほぼ同等だが、メモリ容量が約1.75倍(80GB → 141GB)、帯域幅が約1.4倍(3.35TB/s → 4.8TB/s)に拡張されている。
• シャード(分割)の回避:1000億(100B)パラメータクラスのLLMを、モデル分割(シャーディング)せずに1基のGPUメモリ内に直接収めやすくなりった。これにより、GPU間通信のオーバーヘッドが劇的に減少し、実質的な処理能力が大幅に向上している。
• 実測パフォーマンスの向上
◦ Llama 3(70B)などの大規模モデルにおける推論速度(スループット)は、H100比で約1.4倍〜1.9倍高速化。
◦ コンテキストウィンドウが長いトークン(32k〜)の処理や、バッチサイズが大きいマルチユーザー環境で特に高い優位性を持つ。
2.形状(フォームファクター)の種類
主に以下の2つの形態で市場に流通している。
① H200 SXM:主にクラウド事業者や大規模データセンターが「DGX H200(8基搭載サーバー)」などのシステムとして導入する、基板直付けの高密度モジュール。
② H200 NVL (PCIe):一般的なサーバーラックのPCI Expressスロットに挿入して利用できるボード単体モデル。主にエンタープライズ(企業・大学・研究機関)の自社サーバー増設向け。

3.価格について
価格は「ボード単体での国内流通価格」「グローバル市場の卸値」「クラウドでのレンタル費用」でそれぞれ異なる。
① 国内での購入価格(本体単体・PCIeモデルなど)
日本の正規代理店やシステムインテグレーター(GDEPアドバンスやアプライドなど)を介した市場価格は、ボード1枚あたりでおおよそ以下の通り。
• H200 NVL 141GB (PCIeモデル) 単体価格:約530万円 〜 600万円(税別/税込)
• 2枚+NVLinkブリッジセット:約1,200万円〜
• ※ 8基を組み込んだ統合サーバーシステム(DGX/HGX H200)として導入する場合は、サーバー筐体・ネットワーク機器(InfiniBandなど)込みで約5,000万〜7,000万円以上(40万〜50万ドル規模)の予算感になる。
② グローバル市場の卸値・想定価格
• H200 PCIe 141GB:30,000 〜 35,000ドル
• H200 SXM 141GB:38,000 〜 45,000ドル ※ 大量発注時のボリュームディスカウントにより、1基あたり32,000ドル前後まで下がるケースもあるが、H100(25,000〜30,000ドル)に比べて概ね15〜20%高い価格設定となっている。
③ クラウドレンタル料金(1基・1時間あたり)
初期のハードウェア投資を抑えるため、多くの開発者はクラウド環境で時間貸しを利用している。事業者によって価格帯が大きく分かれる。
• 大手ハイパースケーラー(AWS, Azure, GCP, Oracle等)
◦ 約7.50 〜 12.00ドル / 時間
◦ 高価だが、エンタープライズ向けのSLA(稼働保証)や、高度に最適化されたInfiniBandネットワーク、他サービスとの連携が手厚いのが特徴だ。
• GPU特化型クラウド・分散型プラットフォーム(Lambda Labs, RunPod, Vast.ai, Jarvislabs等)
◦ 約2.30 〜 4.00ドル / 時間
◦ スポット利用や、機密性の高くない検証用途として非常にコストパフォーマンスが良く、1基単位での安価なレンタル(Jarvislabs等で約3.80ドル/時)が活発に利用されている。
まとめ
NVIDIA H200は、次世代のBlackwell(B200等)が本格普及するまでの間、「超巨大LLMの推論・微調整(Fine-tuning)における最も現実的かつ強力な選択肢」として位置づけられている。H100の弱点だったメモリ帯域を完全に克服したことで、実運用での処理効率が大きく高まっているのが最大のメリットとなっている。