NVIDIA はグローバル ハイパーコンバージド・インフラストラクチャ(HCI) リファレンスページにおいて, Maxta MaxDeploy を NVIDIA Cumulus Linux と組み合わせたパートナーソリューションとして取り上げています. これは, ソフトウェア定義型かつ AI レディな次世代データセンター基盤において Maxta が果たす役割を改めて裏付けるものです. オンプレミスでプライベートかつスケーラブル, 経済合理性のある AI プラットフォームをどう構築するかを模索するエンタープライズにとって, この組み合わせは 2026 年に静かに業界の核心となった問いに答えています: ハードウェアを納品するように, AI を納品できるか?
NVIDIA の HCI ページが示すこと——そしてその意義
NVIDIA の Hyperconverged Infrastructure ページは, HCI を従来の 計算-ストレージ-ネットワーク 三層サイロを解消するアーキテクチャとして位置付けています. 分散ストレージソフトウェアが専用 SAN アレイを置き換え, オープンなネットワーク OS がベンダーロックインされたスイッチを置き換える. その結果生まれるのが, スケールアウトと自動プロビジョニング, ラックスペース統合を備えた——NVIDIA が "Data Center in a Rack"(ラック単位のデータセンター) と呼ぶアーキテクチャです.
このビジョンの中で, Maxta は明確に名前を挙げられています. ページには Maxta 創業者兼 CEO Yoram Novick 氏 のコメントが掲載され, ハイパーバイザ / サーバー / ストレージのいずれにも依存しない Maxta の HCI ソフトウェア と NVIDIA Cumulus Linux を組み合わせることで, エンタープライズ向け展開を簡素化できると述べられています. ここには 2 つの意味があります. 第一に, これは単なるロゴ交換ではなく, NVIDIA 自身がドキュメント化した実装可能なソリューションパスであるということ. 第二に, その語り口は現代の AI 意思決定者がもっとも気にするキーワード——オープン, デカップル, ターンキー——にぴたりと一致しているということです.
HCI はかつて SAN を消すために生まれた; いま AI を納品するために生まれ直す
第一次 HCI の波——Maxta はその先駆者として広く認知されていました——はエンタープライズストレージを根底から書き換えました. 計算とストレージを汎用 x86 サーバー上の単一の分散ソフトウェア層に折り畳むことで, モノリシックなストレージアレイのコスト, 複雑性, 硬直性を一掃したのです. Gartner は ハイパーコンバージド・インフラストラクチャのマジック・クアドラント で Maxta を Visionary に位置付け, 同社は HCI における共有データストレージの特許を保有し, MxIQ アナリティクスは, 今やエンタープライズ IT が当然視する予測的運用モデルを切り拓きました.
AI 時代は同様の見直しを我々に迫っています. ただし今回壊すべきサイロは形が違います. 統合に半年かかる GPU クラスター. チェックポイントに追従できないストレージ階層. 単一モデル向けに手作業で調整され, 次世代モデルを支えられないネットワークファブリック. デプロイのたびに上級アルゴリズムエンジニアの現地常駐を要求するソフトウェアスタック. HCI が当初掲げた約束——分散ソフトウェア, 汎用ハードウェア, 自動化された運用——は, プライベート AI 基盤がいま最も必要としているものそのものです.
Maxta + NVIDIA Cumulus 組み合わせの中身
この組み合わせの技術的根拠は単純で, NVIDIA のページが強調しているとおりです:
- MaxDeploy は AI ソフトウェアスタック全体——ドライバ, ランタイム, 依存関係, オーケストレーション——をミラーレベルで固化し, 工業グレードのエッジおよびラックアプライアンスに直接プリインストールします. 上級アルゴリズム専門家が現地に行く必要はもうありません. IT 担当者がアプライアンスをイントラネットに接続し, プリロードされた API を呼び出せばビジネスワークフローが起動します.
- NVIDIA Cumulus Linux はホワイトボックススイッチ上で動作するオープンなネットワーク OS です. 内蔵の マルチシャーシ・リンクアグリゲーション(MLAG) が分散ストレージに必要なリンク冗長性を提供します. Cumulus NetQ は端から端までのファブリック可視性を提供し, 障害切り分けを日単位から秒単位へと縮めます.
- 両者を組み合わせる と, 中央コントローラを必要とせず, 調達と接続を自動化し, 任意のハイパーバイザ / サーバー / ストレージメディアを選べる HCI ファブリックが完成します. 同じアーキテクチャがブランチ拠点の 3 ノードから, 全国規模データセンターの web-scale ポッドまでスケールします.
AI ワークロードに対する具体的な価値は 3 点あります. 第一, RDMA over Converged Ethernet(RoCE)が, もともと分散スループット用に設計されたファブリック上では単なるトグルスイッチになります. 第二, MaxDeploy のミラーレベル固化により, 病院, 防衛コントラクター, ハイエンド製造業が 100% エアギャップ でクラスターを運用できます. これは規制対象 AI にとっての絶対要件です. 第三, 標準化されたハードウェアフォームファクタにより, AI 導入はカスタムエンジニアリングから標準品調達へと変わり, 複数拠点展開はライン式に複製できます.
ストレージ HCI から AI HCI へ: Maxta の進化
今日の Maxta はもはや HCI ソフトウェアだけの会社ではありません. プロダクトラインはエンタープライズ・プライベート AI 向けの 4 層アーキテクチャへと進化しました: MaxtaOS は計算スケジューリング, 依存関係, ランタイムを担い, MaxModel は業界特化の大規模モデルと専門家ノウハウを提供し, MaxDeploy はハード・ソフト一体のデリバリーエンジンとなり, MaxBlueprint は事前検証済みの導入テンプレートとなります. これらが目指すのは, HCI が当時ストレージに対して行ったことを AI 導入に対して行うこと——職人的エンジニアリングを工業的レプリケーションに変えることです.
NVIDIA が Maxta との連携を継続的に取り上げることが重要なのは, ちょうどエンタープライズ AI が PoC を抜け出し調達フェーズに入る節目に重なるからです. CIO たちはかつて HCI 黎明期に発したのと同じ問いを発しています: これは本当に自分で組み立てる必要があるのか, それともシステムとして買えるのか? NVIDIA のリファレンスページが指し示す答えは曖昧さを許しません——システムはすでに存在する. そしてそこに刻まれた名前のひとつが Maxta です.
エンタープライズ AI 意思決定者にとっての含意
プライベート AI 基盤を評価中の意思決定者にとって, NVIDIA のリファレンスは 3 つの結論を直接導きます:
- オープンが再びプロプライエタリに勝つ. HCI が専有 SAN の時代を終わらせたように, AI 時代の HCI は単一ベンダー AI スタックの時代を終わらせます. NVIDIA Cumulus Linux はオープンな NOS, Maxta MaxDeploy はオープンなデリバリーエンジン. 組み合わせれば, ロックインは消えます.
- "ターンキー" はマーケティング用語ではない. 電源を入れ, イントラネットに接続すれば, AI ワークフローは即座に稼働します. 現場要件はアルゴリズム専門家チームから単一 IT オペレーターへと圧縮されます.
- コンプライアンスは標準動作であり, 後付けではない. エアギャップ運用, フルコンプライアンス検証, 物理封装アプライアンスは, このアーキテクチャの既定動作であり, カスタムエンジニアリングを要する例外ではありません.
この 3 点を本当に取り込んだエンタープライズだけが, AI を研究プロジェクトとして扱うのをやめ, インフラとして扱い始めます. それが NVIDIA の HCI ページが描く姿であり, Maxta と Cumulus のパートナーシップが届けるものです: AI が, ハードウェアと同じように到着する——梱包され, 封装され, 電源を入れた瞬間に稼働する.
アーキテクチャの詳細は Maxta の MaxDeploy 製品ページ をご覧ください. または Maxta チームに, Cumulus を基盤としたファブリック上でのプライベート AI 基盤導入についてお問い合わせください. NVIDIA 公式リファレンスページ: nvidia.com/en-gb/networking/hyperconverged-infrastructure/.