NVIDIA 在其全球 超融合基礎架構(HCI) 參考頁面中, 將 Maxta MaxDeploy 與 NVIDIA Cumulus Linux 一同列為重點合作夥伴方案, 這也印證了 Maxta 在新一代軟體定義, AI 就緒資料中心基礎架構中的關鍵角色. 對於正在思考如何在本地私有化, 可擴展且具備經濟可行性的 AI 平台落地路徑的企業而言, 這一組合回答了 2026 年悄然成為產業焦點的核心問題: 如何像交付硬體一樣交付 AI?
NVIDIA 的 HCI 頁面說了什麼——以及為何重要
NVIDIA 的 Hyperconverged Infrastructure 頁面將 HCI 定位為終結傳統 計算-儲存-網路 三層孤島的架構方案. 分散式儲存軟體取代了專屬 SAN 陣列; 開放的網路作業系統取代了廠商鎖定的交換器; 由此帶來橫向擴展, 自動化部署與機櫃空間整合——NVIDIA 稱之為 "機櫃級資料中心"(Data Center in a Rack).
在這一藍圖中, Maxta 被明確點名. 頁面引用了 Maxta 創辦人兼執行長 Yoram Novick 的觀點, 談到 Maxta 與 Hypervisor / 伺服器 / 儲存介質皆無關的 HCI 軟體, 與 NVIDIA Cumulus Linux 配合, 可為企業客戶簡化部署. 這有兩層意義. 第一, 這並非 Logo 互換式的合作, 而是 NVIDIA 自己記錄在案的可落地方案路徑. 第二, 它的話術正好契合現代 AI 決策者最關心的關鍵字: 開放, 解耦, 一體交付.
HCI 當年是為消滅 SAN 而生; 如今是為交付 AI 而重生
第一波 HCI 浪潮——Maxta 是公認的先驅之一——徹底改寫了企業儲存格局. 透過將計算與儲存折疊進運行於通用 x86 伺服器上的同一層分散式軟體, HCI 砍掉了單體儲存陣列的成本, 複雜度與僵化. Gartner 曾在 超融合基礎架構魔力象限 報告中將 Maxta 列為遠見者; 公司在 HCI 共享資料儲存領域擁有專利; Maxta 的 MxIQ 分析能力開創了今日企業 IT 已視為標配的預測性運維模式.
AI 時代正在迫使我們進行類似的清算, 只是這次要拆掉的孤島換了形態. 它們是耗時半年才能整合完成的 GPU 叢集; 是跟不上 checkpoint 節奏的儲存分層; 是為單一模型手工調校, 難以承接下一代模型的網路結構; 是每一次部署都需要資深演算法工程師駐場的軟體堆疊. HCI 最初的承諾——分散式軟體, 通用硬體, 自動化運維——正好是私有 AI 基礎架構現階段最缺的東西.
Maxta + NVIDIA Cumulus 組合的內部細節
這一組合的技術邏輯非常直接, 也正是 NVIDIA 頁面所強調的:
- MaxDeploy 將整個 AI 軟體堆疊——驅動, 執行時, 相依套件與編排——以鏡像級的方式固化預裝到工業級邊緣與機架一體機內部. 資深演算法專家無需駐場; IT 人員將一體機接入內網, 預置 API 即可啟動業務流程.
- NVIDIA Cumulus Linux 是運行於白盒交換器上的開放網路作業系統. 內建的 跨機箱鏈路聚合(MLAG) 提供分散式儲存所需的鏈路冗餘. Cumulus NetQ 提供端到端的網路可視性, 讓故障從天級定位縮短到秒級.
- 兩者結合, 形成一張無中心控制器, 自動化採購與連接, 可自由選擇任意 Hypervisor / 伺服器 / 儲存介質的 HCI 網路. 同一套架構可以從分支站點的 3 節點起步, 一路擴展到全國級資料中心的 web-scale Pod.
對 AI 工作負載而言, 這種組合帶來三個直接價值. 其一, RDMA over Converged Ethernet(RoCE)在原生為分散式吞吐設計的網路上變成一個簡單開關. 其二, MaxDeploy 的鏡像級固化讓醫院, 國防承包商或高端製造業可以在 100% 物理隔絕 狀態下運行叢集——這是受監管 AI 的硬性前提. 其三, 標準化的硬體形態讓 AI 部署從客製化工程變成標品採購, 多站點鋪設可以像產線一樣複製.
從儲存 HCI 到 AI HCI: Maxta 的演進
今日的 Maxta 已不再只是一家 HCI 軟體公司. 產品線演進為面向企業私有 AI 的四層架構: MaxtaOS 負責算力調度, 相依與執行時; MaxModel 提供產業垂直大模型與專家 Know-how; MaxDeploy 作為軟硬一體的交付引擎; MaxBlueprint 則是經過預先驗證的部署藍本. 它們共同的目標——為 AI 部署做 HCI 當年為儲存所做的事: 把它從作坊式工程變成工業級複製.
NVIDIA 持續把 Maxta 合作放在顯眼位置之所以重要, 是因為這恰好出現在企業 AI 走出概念驗證, 進入採購週期的關鍵節點. CIO 們正在問當年 HCI 興起時他們問過的同一個問題: 這些東西我真的得自己拼裝嗎, 還是可以作為一台系統買回來? NVIDIA 的參考頁面給出的答案毫不含糊——系統已經存在, Maxta 就是寫在上面的名字之一.
這對企業 AI 決策者意味著什麼
對於正在評估私有 AI 基礎架構的決策者而言, NVIDIA 這份引用直接帶來三條結論:
- 開放再次勝過專屬. HCI 當年終結了專屬 SAN 時代; AI 時代的 HCI 同樣會終結單一廠商 AI 堆疊的時代. NVIDIA Cumulus Linux 是開放的 NOS; Maxta MaxDeploy 是開放的交付引擎. 兩者結合, 鎖定不復存在.
- "一體交付" 不是行銷詞. 通電, 接入內網, AI 業務流程立即上線. 現場需求從一支演算法專家團隊壓縮為單一 IT 運維人員.
- 合規是預設行為, 不是事後加裝. 物理隔絕運行, 全量合規校驗, 物理封裝的一體機, 都是這一架構的預設特性, 而非需要額外工程的特例.
真正吸收這三條的企業, 才會停止把 AI 當作研究專案, 轉而把它當作基礎建設. 這正是 NVIDIA 的 HCI 頁面所描繪的——也正是 Maxta 與 Cumulus 合作所交付的: 讓 AI 像硬體一樣到貨——裝箱, 封裝, 通電即用.
了解架構詳情, 請造訪 Maxta MaxDeploy 產品頁, 或與 Maxta 團隊聯繫, 商討如何在 Cumulus 網路結構上落地私有 AI 基礎建設. NVIDIA 原始參考頁面: nvidia.com/en-gb/networking/hyperconverged-infrastructure/.