お気に入りタイトル/ワード

タイトル/ワード名(記事数)

最近記事を読んだタイトル/ワード

タイトル/ワード名(記事数)

LINEで4Gamerアカウントを登録
NVIDIAがHopperベースのデータセンタ向けGPU「H200」を発表。GPUコアはそのままだが,「HBM3e」メモリ採用により高性能化
特集記事一覧
注目のレビュー
注目のムービー

メディアパートナー

印刷2023/11/14 14:38

ニュース

NVIDIAがHopperベースのデータセンタ向けGPU「H200」を発表。GPUコアはそのままだが,「HBM3e」メモリ採用により高性能化

 米国時間11月13日,NVIDIAは,データセンタやスーパーコンピュータ向けとなる新型のGPU「NVIDIA H200」と,それを搭載するAI処理向けスーパーコンピュータ「NVIDIA HGX 200」を発表した。これらは,11月12日から米国コロラド州で開催されているスーパーコンピュータに関する国際会議「SC23」に合わせて発表となったものだ。

H200搭載ボードのイメージ
画像集 No.002のサムネイル画像 / NVIDIAがHopperベースのデータセンタ向けGPU「H200」を発表。GPUコアはそのままだが,「HBM3e」メモリ採用により高性能化

 H200は「Hopper」アーキテクチャをベースとしたGPUで,現行の「NVIDIA H100」と演算性能は同等であるが,グラフィックスメモリとして新開発の広帯域メモリ「HBM3e」を採用したことが特徴だ。HBM3e採用によって,メモリバス帯域幅はH100の3.35TB/sから,4.8TB/sへと,約1.4倍強に拡大している。

 HBM3e搭載に合わせて,メモリ容量もH100の80GBから,141GBまで増えた。メモリバス帯域幅と容量の拡大によって,とくにメモリ負荷が高い大規模言語モデルの推論やトレーニングタスクの高速化が期待できるだろう。NVIDIAはH200の大規模言語モデルにおける推論性能が,H100に比べて最大約2倍に引き上げられているというグラフを示して,その性能をアピールしている。

LLama1/2およびGPT-3における推論性能をH100と比較したグラフ
画像集 No.003のサムネイル画像 / NVIDIAがHopperベースのデータセンタ向けGPU「H200」を発表。GPUコアはそのままだが,「HBM3e」メモリ採用により高性能化


GPT-3における推論性能は,2021年に発売となったA100に比べ18倍に達するという
画像集 No.004のサムネイル画像 / NVIDIAがHopperベースのデータセンタ向けGPU「H200」を発表。GPUコアはそのままだが,「HBM3e」メモリ採用により高性能化

 今回,発表となったH200は,NVIDIA独自の拡張基板規格「SXM」対応の基板に実装されている。NVIDIAは,H200を搭載したAI処理向けスーパーコンピュータのHGX 200として出荷するほか,2024年第2四半期には,システムメーカーやクラウドプロバイダからも利用が可能になるとのことだ。大規模言語モデルのゲームへの応用もちらほらと出始めているので,その性能を加速させるH200の登場は,ゲーマーも頭の片隅に入れておくといいかもしれない。

NVIDIAの当該プレスリリース(英語)

NVIDIAのH200製品情報ページ(英語)

  • 関連タイトル:

    Hopper(開発コードネーム)

  • この記事のURL:
4Gamer.net最新情報
プラットフォーム別新着記事
総合新着記事
企画記事
スペシャルコンテンツ
注目記事ランキング
集計:11月20日〜11月21日