AMD Instinct MI300系列

將百億億次級的科技導入主流高效能運算與人工智慧領域
Email Sales
百億億次運算時代的加速器
  • Frontier是全球五百大超級電腦中持續強佔首位的超級電腦,能於四屆競賽蟬連榜首的卓越表現歸因於採用了AMD EPYC處理器和基於AMD ROCm™軟體平臺的AMD Instinct系列加速器。即便使用技術領先的處理器──AMD EPYC™ 9004系列,也需要平行運算加速器來進行高效能運算、人工智慧訓練和推理以及資料密集型工作負載。
  • 資料中心等級的APU與加速運算模組
    技嘉科技已為AMD Instinct™ MI300系列加速器打造了多款強大運算效能的伺服器,其中包括開放加速器模組(OAM)規格,類似於其前身 MI250加速器。技嘉科技基於AMD Instinct™ MI300系列其不同的平台量身訂做,將MI300X開放加速器模組(OAM)整合於5U機身G593系列伺服器中;另一款MI300A APU則採用LGA插槽設計,G383系列伺服器內提供四組APU插槽,CPU與GPU可直接互聯運算結果。
  • 在即將到來、極有可能成為新一代超級電腦領導者的勞倫斯利佛摩國家實驗室(Lawrence Livermore National Laboratory,LLNL)El Capitan超級電腦中,採用AMD MI300A APU架構,該晶片架構結合Zen 4 CPU與CDNA 3 GPU核心,並共享128GB HBM3記憶體;這意味著該技術不僅能夠適用於大型運算叢集,還可採用單組高效能運算伺服器進行小規模部署。
資料中心級的APU(MI300A)與獨立的加速器模組(MI300X)

AMD Instinct™ MI300 系列,包括 MI300A 和 MI300X 加速器模組,旨在以精實、高效率的形式提升人工智慧和高效能運算能力。MI300A是針對單一伺服器插槽的加速處理單元(APU),透過在單組晶片上結合 GPU、CPU 和高頻寬記憶體(HBM3),有助於提高資料傳輸效率和運算密度。MI300X在標準伺服器平台上為每個運算節點提供了強大的平行運算能力,每個節點可搭載8組OAM型態的加速器模組。

AMD Instinct MI300系列的問世,目的在於提高資料中心運算效率、解決預算和永續性等用戶所關注的議題,亦提供高度可程式化的GPU軟體平臺。AMD Instinct MI300系列採用新一代的GPU核心技術,適用於生成式人工智慧和高效能運算,以及高吞吐量的AMD CDNA 3 GPU計算單元,並具備本地稀疏矩陣支援。通過增強運算吞吐量、簡化程式設計和部署,AMD Instinct MI300系列克服了在高效能運算中心其資源、複雜性、速度和架構不斷增長的挑戰,並滿足對人工智慧和加速高效能運算的需求。AMD Instinct MI300 系列已準備就緒,隨時為客戶部署。
應用領域
高效能運算
在高效能運算應用中,複雜問題依靠數值分析、模擬和計算來解決。在高效能運算應用中,常採用運算叢集來集結大量的CPU與GPU進行各式複雜運算處理,為避免CPU與GPU間的效能瓶頸,亦可透過APU基礎架構設計,仰賴大量APU運算快速獲取洞見。
人工智慧
人工智慧工作負載專注於使用神經網路和深度學習等演算法以圖形識別或基於決策資料進行機器學習模型的訓練和推斷。透過加速器的協作,使得這些演算法對於自然語言處理、電腦視覺等任務需要高度的平行運算處理能力得以實現。
數據分析
在大數據和計算模擬等資料密集型的應用,運算平台高度依賴GPU來實現高平行運算、低延遲和高吞吐量,來加速資料探索和大規模資料處理。
AMD Instinct MI300系列優勢
卓越的運算效能
新一代的GPU大幅提升HBM記憶體和頻寬,以實現更高效的大規模語言建模訓練和推論。
靈活性架構
AMD Instinct MI300系列提供兩種選擇:MI300X為獨立的GPU,內建192GB HBM3記憶體;MI300A結合GPU、CPU並共享128GB HBM3記憶體;適合彈性選用。
最佳化能源效率
排行前十名的超級電腦中,有七台效能最佳的超級電腦採用AMD Instinct加速器,此最佳化能源效率符合未來數據中心永續發展的目標。
最大化利用率
AMD Instinct MI300系列透過對GPU與APU中的計算單元進行分塊矩陣,支援虛擬化部署以減少容量浪費並提升利用率。
AMD Instinct™ MI300A APU
Model MI300A APU
Form Factor APU SH5 socket
AMD ‘Zen 4’ CPU cores 24
GPU Compute Units 228
Stream Processors 14,592
Peak FP64/FP32 Matrix* 122.6 TFLOPS
Peak FP64/FP32 Vector* 61.3/122.6 TFLOPS
Peak FP16/BF16* 980.6 TFLOPS
Peak FP8* 1961.2 TFLOPS
Memory Capacity 128 GB HBM3
Memory Clock 5.2 GT/s
Memory Bandwidth 5.3 TB/s
Bus Interface PCIe Gen5 x16
Scale-up Infinity Fabric™ Links 4
Maximum TDP 550W (air & liquid) & 760W (water)
Virtualization Up to 3 partitions

* Indicates not with sparsity

AMD Instinct™ MI300X GPU
Model MI300X GPU Performance compared to MI250
Form Factor OAM module
GPU Compute Units 304 Up 46%
Stream Processors 19,456 Up 46%
Peak FP64/FP32 Matrix* 163.4 TFLOPS Up 81%
Peak FP64/FP32 Vector* 81.7/163.4 TFLOPS Up 80% & 261%
Peak FP16/BF16* 1307.4 TFLOPS Up 261%
Peak FP8* 2614.9 TFLOPS
Memory Capacity Up to 192 GB HBM3 Up 50%
Memory Bandwidth 5.3 TB/s Up 62%
Bus Interface PCIe Gen 5 x16
Infinity Fabric™ Links 7
Maximum TBP 750W
Virtualization Up to 8 partitions

* Indicates not with sparsity

系列產品
1/3
HPC/AI Server - AMD Instinct™ MI300A APU - 3U 8-Bay Gen5 NVMe | Application: 人工智慧平台 , 人工智慧訓練伺服器 , 人工智慧推論伺服器 & 高效能運算伺服器
2/3
HPC/AI Server - AMD EPYC™ 9004 - 5U DP AMD Instinct™ MI300X 8-GPU | Application: 人工智慧平台 , 人工智慧訓練伺服器 , 人工智慧推論伺服器 & 高效能運算伺服器
3/3
HPC/AI Server - 5th/4th Gen Intel® Xeon® - 5U DP AMD Instinct™ MI300X 8-GPU | Application: 人工智慧平台 , 人工智慧訓練伺服器 , 人工智慧推論伺服器 & 高效能運算伺服器
加速實現你的科技創新
業務洽詢