所有數據,都蘊含 AI 潛力
AI 工廠 (AI factory) 是專為單一組織量身打造的專業級 AI 基礎建設,能將大數據改造成潛力無窮的 AI 發明,用來增強競爭力或是開創新興財源。技嘉 GIGABYTE 是 AI 解決方案與資料中心基礎建設服務供應商,致力於幫助跨領域、跨屬性的私人企業或公家機關打造 AI 工廠,全球客戶信賴肯定的技嘉軟硬體組合能將既有的 IT 架構升級成為爆發力十足的智慧成長引擎。AI 賽局的致勝關鍵,就是把握前所未見的智慧契機,歡迎聯繫技嘉,建造專屬於你的 AI 工廠!

·
主掌 GIGAPOD,激發你的人工智慧成長潛能
AI 工廠的算力來自於高可擴充性的超算叢集,利用專為深度學習與 AI 訓練所設計的晶片,將組織大數據快速轉變成 AI 詞元 (token),用其開創新型 AI 工具。技嘉的 GIGAPOD 解決方案採用極速通訊互聯技術,將 256 顆 GPU 連結形成統一單位的強大運算叢集,實現規模化平行運算,發揮突破性的 AI 效能。技嘉提供多選擇性的硬體配置,用戶可挑選 AMD Instinct™、Intel® Gaudi® 或 NVIDIA HGX™ Hopper/Blackwell 運算模組,亦可搭配傳統氣冷或先進液冷散熱設計,達到超乎預期的效率與投報率。GIGAPOD 搭載技嘉 GPU 協同運算伺服器和中央控管伺服器,追加 GPM 全堆疊軟體套件建造優質 AI & HPC 開發環境,客戶能一次享受資料中心基礎建設管理 (DCIM)、工作負載排程、MLOps 與 AIOps 等多種加值服務。
氣冷方案液體冷卻方案
*Compute Racks + 1 Management Rack
GPUs Supported | GPU Server | GPU Servers | Power Consumption | No. of Racks | |
|---|---|---|---|---|---|
![]() | NVIDIA HGX™ B300/B200/H200 AMD Instinct™ MI350X/MI325X/MI300X | 8U | 4 | 66kW | 8+1 (48U) |
![]() | NVIDIA HGX™ B200 | 8OU | 4 | 55kW | 8+1 (44OU) |
![]() | Intel® Gaudi® 3 | 8U | 4 | 62kW | 8+1 (48U) |
![]() | NVIDIA HGX™ H200 AMD Instinct™ MI300X | 5U | 8 | 100kW | 4+1 (48U) |
![]() | NVIDIA HGX™ H200 AMD Instinct™ MI300X | 5U | 4 | 50kW | 8+1 (42U) |
![]() | NVIDIA HGX™ H200 AMD Instinct™ MI300X | 5U | 4 | 50kW | 8+1 (48U) |
·
NVIDIA GB300 NVL72:專為 AI 推理時代而生
AI 工具的用戶量龐大,適合採用高可擴充性的 AI 推論平台同步處理需求。技嘉推薦使用 NVIDIA GB300 NVL72 機櫃級解決方案,運用全液冷設計將 72 顆 NVIDIA Blackwell Ultra GPU 與 36 顆 Arm® 架構的 NVIDIA Grace™ CPU 整合於單一平台,專為測試階段推論擴展 (test-time scaling inference) 而優化。
在 AI 工廠部署上,NVIDIA GB300 NVL72 搭配 NVIDIA Quantum-X800 InfiniBand 或 Spectrum™-X Ethernet,並結合 NVIDIA ConnectX®-8 SuperNIC™,可端出比 NVIDIA Hopper™ 平台高出 50 倍的推論效能,讓 AI 模型在大規模應用中更快產出結果,實現生成式 AI 與智慧應用的落地。





1 管理交換器
- 2 x 帶外管理交換機
- 1 x 跨機櫃 OS 交換機(選配)
2 3 x 1U 33kW 電源模組托盤
3 10 x 運算節點
- 1U XN15-CB0-LA01
4 9 x NVIDIA NVLink™ 交換器托盤
- 1U NVLink 交換器托盤
- 144 x NVLink 連接埠
- 第五代 NVLink 互連技術,總頻寬可達每秒 1.8 TB
5 8 x 運算節點
- 1U XN15-CB0-LA01
6 3 x 1U 33kW 電源模組托盤
7 相容於 in-rack 或 in-row 冷卻液分配器

高速記憶體
60X
vs. NVIDIA HGX H100
HBM 頻寬
20X
vs. NVIDIA HGX H100
網路頻寬
18X
vs. NVIDIA HGX H100

XN15-CB0-LA01 運算節點
- 2 x NVIDIA GB300 Grace™ Blackwell Ultra 超級晶片
- 4 x 279GB HBM3E GPU 記憶體
- 2 x 480GB LPDDR5X CPU 記憶體
- 8 x E1.S Gen5 NVMe SSD 硬碟
- 4 x NVIDIA ConnectX®-8 SuperNIC™ 800 Gb/s OSFP 連接埠
- 1 x NVIDIA® BlueField®-3 資料處理器
NVIDIA GB300 NVL72:專為 AI 推理時代而生
運用大數據完成 AI 模型訓練之後的下一階段,就是利用 AI 模型開創嶄新的智慧工具,部署於組織內部或是對外銷售。AI 產品的用戶數量非常龐大,須採用高可擴充性的 AI 推論平台才能同時服務眾多使用者,推薦購入 NVIDIA GB300 NVL72 機櫃級解決方案,運用全液冷設計將 72 顆 NVIDIA Blackwell Ultra GPU 與 36 顆 Arm® 架構的 NVIDIA Grace™ CPU 整合於單一平台,專為測試階段推論擴展 (test-time scaling inference) 而優化。在 AI 工廠部署上,NVIDIA GB300 NVL72 搭配 NVIDIA Quantum-X800 InfiniBand 或 Spectrum™-X Ethernet,並結合 NVIDIA ConnectX®-8 SuperNIC™,可端出比 NVIDIA Hopper™ 平台高出 50 倍的推論效能,讓 AI 模型在大規模應用中更快產出結果,實現生成式 AI 與智慧應用的落地。

XL44-SX2-AAS1 with RTX PRO™ 6000 Blackwell Server Edition GPUs
- NVIDIA RTX PRO™ 伺服器搭載 ConnectX®-8 SuperNIC 交換器
- 搭載 8 張 NVIDIA RTX PRO™ 6000 Blackwell 伺服器版本 GPU
- 搭載 1 張 NVIDIA BlueField®-3 DPU
- 板載 400Gb/s InfiniBand/Ethernet QSFP 埠搭配 PCIe Gen6 交換器,實現 GPU 對 GPU 最高效能
- 雙 Intel® Xeon® 6700/6500 系列處理器
- 8-通道 DDR5 RDIMM/MRDIMM, 32 x DIMMs
- 2 x 10Gb/s 網路埠 (Intel® X710-AT2)
- 8 x 2.5" Gen5 NVMe 熱插拔硬碟槽
- 2 x M.2 插槽 (PCIe Gen4 x2)
- 3+1 3200W 80 PLUS 鈦金級冗餘電源供應器











