AMD Instinct™ MI350 系列 GPU:極致效能、成本效率與全開放資源生態
AMD 於 2025 年 6 月正式推出 AMD Instinct™ MI350 系列 GPU,為資料中心運算帶來重大躍進,專為生成式 AI 與高效能運算工作負載而設計。此系列採用先進的第 4 代 AMD CDNA™ 架構,並以台積電 3 奈米製程打造,提供卓越的效能與能源效率,能以高速完成大型 AI 模型訓練、高速推論以及複雜的 HPC 工作負載,如科學模擬與資料處理。
MI350X 與 MI355X GPU 皆配備 288GB HBM3E 記憶體、高達 8TB/s 的頻寬,在 AI 運算效能上較前一代提升最高 4 倍,推論效能更達 35 倍的突破,奠定其在 AI 與 HPC 市場中強大的競爭地位。
AMD Instinct™ MI350 Series
The AMD Instinct™ MI350 Series GPUs, launched in June 2025, represent a significant leap forward in data center computing, designed to accelerate generative AI and high-performance computing (HPC) workloads. Built on the cutting-edge 4th Gen AMD CDNA™ architecture and fabricated using TSMC's 3nm process, these GPUs deliver exceptional performance and energy efficiency for training massive AI models, high-speed inference, and complex HPC tasks like scientific simulations and data processing. Featuring 288GB of HBM3E memory and up to 8TB/s bandwidth, the MI350X and MI355X GPUs offer up to 4x generational AI compute improvement and a remarkable 35x boost in inference performance, positioning them as formidable competitors in the AI and HPC markets.
MI355X GPU | MI350X GPU | Model | MI325X GPU |
|---|---|---|---|
| TSMC's N3P / TSMC's N6 | Process Technology (XCD/IOD) | TSMC's 5N / TSMC's 6 | |
| AMD CDNA4 | GPU Architecture | AMD CNDA3 | |
| 256 | GPU Compute Units | 304 | |
| 16,384 | Stream Processors | 19,456 | |
| 185 Billion | Transistor Count | 153 Billion | |
| 5.0 POPs | 4.6 POPs | INT8/INT4 | -* |
| 10 POPs | 9.2 POPs | INT8/INT4 (Sparsity) | -* |
| 10 PF | 9.2 PF | PF6/FP4 | -* |
| 5.0 PF | 4.6 PF | FP8 | 2.6 PF |
| 2.5 PF | 2.3 PF | BF16 | 1.3 PF |
| 288 GB HBM3E | Dedicated Memory Size | 256 GB HBM3E | |
| Up to 8.0 TB/sec | Memory Bandwidth | 6 TB/s | |
| PCIe Gen5 x16 | Bus Interface | PCIe Gen5 x16 | |
Passive, Active | Passive | Cooling | Passive, Active |
| 1400W | 1000W | Maximum TDP/TBP | 1000W |
Virtualization Support | Up to 8 partitions | ||
*Data types not supported
AMD Instinct™ MI300 系列規格
GPU & APUSpecifications
獨立加速器模組與資料中心級的加速處理單元
AMD Instinct™ MI300 系列,包括 MI300X & MI325X 加速器模組及MI300A ,旨在以精實、高效率的形式提升人工智慧和高效能運算能力;其中,AMD Instinct MI325X 加速器內建業界領先的 256GB 記憶體和 6 TB/s 的頻寬,以加速資料交換時間;用來驅動最大型的 AI 模型。
Instinct MI300X 提供強大的加速效能,於技嘉G系列伺服器中配備八組 GPU。AMD Instinct MI300 系列加速器旨在提升資料中心運算效率,應對預算和可持續性問題,並提供高度可編程的 GPU 軟體平台。它擁有針對生成式 AI 和高性能計算(HPC)設計的先進 GPU、高吞吐量的 AMD CDNA 3 GPU 計算單元(CUs)以及原生的硬體稀疏矩陣支援。MI300X 提供 304 個高吞吐量計算單元,用於 AI運算相關應用,包括新數據類型支援、照片和影片解碼;支援多種數據類型及最新的生成式 AI 模型。
AMD首款整合 CPU/GPU 的加速處理單元(APU)– Instinct MI300A – 旨在克服 CPU 和 GPU 之間通道不足的的效能瓶頸,減少管理數據的程式碼工作,以及每代 GPU 都需要重構和重新編譯程式碼的需求。這項技術已大規模部署於全球最快且最節能的超級電腦中,現在即可採用 GIGABYTE伺服器,針對需求進行適當規模的部署。
透過提升運算吞吐量並簡化程式設計和部署,AMD Instinct MI300 系列應對了資源、複雜性、速度和架構挑戰下日益增長的 AI 和高效能運算需求,技嘉伺服器與AMD Instinct MI300 系列已準備好讓您即刻部署人工智慧資料中心。
Optimize Next Gen Innovation with AMD ROCm™ 7.0
| The AMD ROCm™ 7.0 software stack is a key differentiator that enables high-performance AI and HPC development with minimal code changes. AMD Instinct™ MI350 Series GPUs are fully optimized for leading frameworks such as PyTorch, TensorFlow, JAX, ONNX Runtime, Triton, and vLLM, and offer Day 0 support for popular models through automatic kernel generation and continuous validation. | |
|---|---|
|
|
| [1] (MI300-080): Testing by AMD as of May 15, 2025, measuring the inference performance in tokens per second (TPS) of AMD ROCm 6.x software, vLLM 0.3.3 vs. AMD ROCm 7.0 preview version SW, vLLM 0.8.5 on a system with (8) AMD Instinct MI300X GPUs running Llama 3.1-70B (TP2), Qwen 72B (TP2), and Deepseek-R1 (FP16) models with batch sizes of 1-256 and sequence lengths of 128-204. Stated performance uplift is expressed as the average TPS over the (3) LLMs tested. Results may vary. | |
選擇搭載 AMD Instinct™ MI350 系列伺服器
高密度算力
提供業界領先的高密度算力,5U機身的G593 系列及 3U機身的G383 系列,擁有高密度算力同時亦提供絕佳穩定性。
高效能運算
搭載8組GPU模組基板的伺服器透過優化的散熱設計,確保處理器和GPU算力維持峰值效能。
彈性擴展
提供多組擴充槽,可彈性配置乙太網路或InfiniBand 網路介面卡,以實現節點之間高速資料傳輸。
先進散熱
隨著導入直接液冷(DLC)技術,改善系統整體表現,處理器與GPU的熱設計功耗(TDP)持續增長也不構成問題,充分發揮尖端運算的最大潛能。
能源效率
透過即時電源管理、自動風扇速度控制以及冗餘鈦金級電源供應器(PSU)確保最佳的散熱效果和能源效率。亦有DLC(液冷)方案供選擇。