AMDが2026年5月7日、PCIe接続型のAIアクセラレータ「Instinct MI350P」を発表しました。同社にとって約4年ぶりとなるPCIe型Instinct製品で、CDNA 4アーキテクチャを採用し、推定最大4.6 PFLOPs(MXFP4)のAI演算性能と144 GB HBM3Eメモリを600Wで実現しています。既存のサーバーインフラにそのまま導入できるドロップイン設計が特徴です。
既存サーバーをそのままAI基盤に——ドロップイン設計の狙い
Instinct MI350Pは、高価なインフラ投資なしにAI演算能力を拡張したい企業ユーザーを主なターゲットとしています。デュアルスロット・パッシブ冷却設計の標準的なPCIeカードとして、既存のエアクール対応サーバーにそのまま搭載できます。現在のデータセンターの電力・冷却・ラックインフラ内でオンプレミスの推論を展開することを想定した製品です。
AMDは開発スタックについても低コスト・無償オプションを含むオープンエコシステムを提供するとしており、運用コストの削減につながると説明しています。
主要スペック
| 項目 | MI350P | 比較:MI350X |
|---|---|---|
| アーキテクチャ | CDNA 4 | CDNA 4 |
| プロセス(GPU) | TSMC 3nm | TSMC 3nm |
| XCD構成 | 4 XCD | 8 XCD |
| コンピュートユニット | 128 CU | — |
| ストリームプロセッサ | 8,192基 | — |
| マトリクスコア | 512基 | — |
| ブーストクロック | 2,200 MHz | — |
| トランジスタ数 | 730億(73 billion) | — |
| HBMメモリ容量 | 144 GB HBM3E | 288 GB HBM3E |
| メモリバス幅 | 4,096-bit | 8,192-bit |
| メモリ帯域(最大) | 4 TB/s | — |
| LLC(Infinity Cache) | 128 MB | — |
| TBP | 600W(450W設定も可) | — |
| カード長 | 267mm(10.5インチ) | — |
| 電源コネクタ | 16ピン | — |
MI350Pは、MI350XのXCD構成を半分(4基)に抑えた派生モデルと位置付けられます。メモリ容量・バス幅もMI350Xの半分となっており、PCIeフォームファクタへの最適化が図られています。IOダイはTSMCの6nm FinFETプロセスをベースとしています。
性能詳細とNVIDIA H200 NVLとの比較
精度別AI演算性能
| 精度フォーマット | MI350P |
|---|---|
| MXFP4 | 最大4.6 PFLOPs(推定) |
| MXFP6 | 4.6 PFLOPs |
| MXFP8 | 2.3 PFLOPs |
| FP16(スパーシティ) | 2.3 PFLOPs |
| FP16 | 1.15 PFLOPs |
| BFloat16 | 1.15 PFLOPs |
| BFloat16(スパーシティ) | 2.30 PFLOPs |
| FP32 | 72 TFLOPs |
| FP64 | 36 TFLOPs |
| INT8 | 2.3 POPs |
| INT8(スパーシティ) | 4.6 POPs |
なお、ソースではMXFP4について「推定(estimated)」「最大(up to)」と条件付きで示しています。MXFP6・MXFP4といった低精度フォーマットのネイティブ加速に対応しており、AMDはこれを「エンタープライズPCIeカードとして現時点で最高の性能」と位置付けています。また、主要な8ビット・16ビット精度ではスパーシティ(疎行列)加速にも対応しています。
競合製品との比較
直接の競合となるNVIDIAのH200 NVLは、141 GB HBM3EをHopper H200 GPUに組み合わせたPCIe型アクセラレータです。MI350PのHBM3E容量(144 GB)はH200 NVL(141 GB)をわずかに上回っています。
NVIDIAはRTX PRO 6000 Blackwell サーバーエディションも投入しています。ただしこちらはGB202チップベースであり、96 GB GDDR7メモリを搭載しています。ソースによれば、GB200こそが真のサーバー向けオプションであり、RTX PRO 6000 BlackwellはGB202チップベースで標準的なGPUの位置付けとされています。
なお、MI350Pの価格はAMDから現時点では公表されていません。
Q&A
Q. MI350PとMI350Xの主な違いは何ですか? A. MI350PはMI350XのXCD構成を半分の4基に抑えた派生モデルです。コンピュートユニット数は128 CU、HBM3Eメモリは144 GB(MI350Xは288 GB)、メモリバス幅は4,096-bit(MI350Xは8,192-bit)となっています。PCIeフォームファクタに収めるためのスケールダウン設計で、既存サーバーへのドロップイン導入を可能にしています。
Q. MI350Pの価格はいくらですか? A. AMDは現時点でMI350Pの価格を公表していません。競合のNVIDIA H200 NVLの市場価格は3万〜4万ドル前後とされています。
競合との比較早見表
| 項目 | MI350P | MI350X | H200 NVL(NVIDIA) | RTX PRO 6000 Blackwell(NVIDIA) |
|---|---|---|---|---|
| アーキテクチャ | CDNA 4 | CDNA 4 | Hopper(H200) | Blackwell(GB202) |
| HBMメモリ容量 | 144 GB HBM3E | 288 GB HBM3E | 141 GB HBM3E | —(GDDR7搭載、HBM非搭載) |
| メモリ種別 | HBM3E | HBM3E | HBM3E | 96 GB GDDR7 |
| メモリバス幅 | 4,096-bit | 8,192-bit | 非公表 | 非公表 |
| 最大AI演算性能 | 最大4.6 PFLOPs(MXFP4・推定) | 非公表 | 非公表 | 非公表 |
| TBP | 600W | 非公表 | 非公表 | 非公表 |
| 市場価格 | 未公表 | 非公表 | 約3万〜4万ドル | 非公表 |
| フォームファクタ | PCIe(デュアルスロット) | 非公表 | PCIe | 非公表 |
