輝達發表新一代 AI 平台 Vera Rubin,鎖定「代理式 AI」時代。此系統整合 CPU、GPU 與網路,旨在提供建構 AI 工廠的完整解決方案,加速下一波基礎設施浪潮。輝達發表新一代 AI 平台 Vera Rubin,鎖定「代理式 AI」時代。此系統整合 CPU、GPU 與網路,旨在提供建構 AI 工廠的完整解決方案,加速下一波基礎設施浪潮。

GTC 2026:NVIDIA Vera Rubin 平台登場 七晶片整合打造 AI 超級電腦

2026/03/17 13:22
閱讀時長 9 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 [email protected] 聯絡我們。

NVIDIA 推出 Vera Rubin 平台,整合 CPU GPU 與網路晶片形成 AI 超級電腦架構,大幅提升推論效率並降低算力成本。
在GTC 2026大會上,NVIDIA執行長黃仁勳再次投下震撼彈,正式發表全新一代AI加速平台——Vera Rubin。這不僅僅是單一晶片的更新,而是一個由七款全新晶片、五種專用機架組成的完整系統,將為即將爆發的「代理式AI」 (Agentic AI)時代提供從訓練到推論的全面基礎設施。黃仁勳將此形容為「一代飛躍」,並且宣稱:「代理式AI的轉折點已經到來,Vera Rubin將開啟歷史上最大規模的基礎設施建設浪潮」。

從單一晶片到完整工廠:Vera Rubin的宏大願景

隨著AI模型從單純的問答生成,邁向能夠自主規劃、決策與執行任務的「代理式AI」,運算需求也產生根本性的變化。未來的AI不僅需要強大的GPU進行模型推論,更需要龐大的CPU資源來運行模擬環境、驗證結果、呼叫工具,以及處理複雜的邏輯推理。

Vera Rubin平台正是為此而生,其整合全新的Vera CPU、Rubin GPU、NVLink 6交換器、ConnectX-9 SuperNIC智慧網路卡、BlueField-4 DPU、Spectrum-6 乙太網路交換器,以及新加入整合的Groq 3 LPU推論加速器。

這七大晶片協同運作,構成一座完整的AI工廠,能應對從大規模預訓練、後訓練、測試時擴展 (Test-Time Scaling),到即時代理式推論的所有階段。

Anthropic執行長Dario Amodei表示:「企業和開發者使用Claude進行日益複雜的推理、代理式工作流程和關鍵任務決策。這需要能夠跟上腳步的基礎設施。NVIDIA的Vera Rubin平台為我們提供維持服務所需的運算、網路和系統設計」。OpenAI執行長Sam Altman也強調:「有了NVIDIA Vera Rubin,我們將能大規模運行更強大的模型和代理,為數億人提供更快、更可靠的系統」。

五大機架全面解析:為AI每個環節打造專屬武器

Vera Rubin平台並非單一產品,而是由五種不同功能的機架系統組成,可根據不同AI工作負載進行配置:

• NVIDIA Vera Rubin NVL72機架

這款旗艦機架整合72顆Rubin GPU與36顆Vera CPU,透過NVLink 6互連。相較前代Blackwell平台,訓練大型混合專家 (MoE)模型所需的GPU數量僅為原本四分之一,推論吞吐量則在每瓦提升高達10倍,每token成本更降至十分之一。它專為超大規模AI工廠設計,可透過Quantum-X800 InfiniBand或Spectrum-X 乙太網路無縫擴展。

• NVIDIA Vera CPU機架

強化學習與代理式AI工作負載極度依賴大量的CPU環境來測試和驗證GPU模型產生的結果。這款機架整合256顆液冷版本Vera CPU,能提供可擴展、高能效的運算容量。與傳統CPU相比,Vera執行結果效率提升兩倍,速度快50%。

• NVIDIA Groq 3 LPX機架

LPX專為代理式系統所需的低延遲、大規模上下文 (百萬token級別)需求設計。與Vera Rubin結合時,Rubin GPU與LPU會共同計算每個輸出token的每一層模型,實現最高35倍的每百萬瓦推論吞吐量提升,為兆級參數模型帶來高達10倍的潛在營收機會。

• NVIDIA BlueField-4 STX儲存機架

這是專為AI設計的原生儲存基礎設施,能將GPU記憶體無縫擴展至整個POD (運算叢集),專門優化用於儲存和檢索大型語言模型,以及代理式AI工作流程產生的大量KV快取資料。搭配全新的DOCA Memos框架,可將推論吞吐量提升高達5倍。Mistral AI技術長 Timothée Lacroix指出,這將為代理式AI的指數級擴展提供關鍵性能提升。

• NVIDIA Spectrum-6 SPX乙太網路機架

專為加速AI工廠的東西向流量設計。採用共封裝光學 (Co-Packaged Optics)的Spectrum-X乙太網路光子技術,相較於傳統可插拔收發器,光學功耗效率提升高達5倍,韌性更提升10倍。

能源效率與韌性的系統級思考

為了應對AI工廠龐大的功耗挑戰,NVIDIA同步發表了NVIDIA DSX平台。其中的DSX Max-Q技術能在整個AI工廠實現動態供電配置,讓固定功耗的資料中心能多佈署30%的AI基礎設施。DSX Flex軟體則讓AI工廠能成為「電網靈活資產」,釋放高達100吉瓦 (GW)的閒置電網容量。

NVIDIA同時也發表Vera Rubin DSX AI工廠參考設計,這是一份涵蓋運算、網路、儲存、電源與散熱的完整藍圖,將最大化每瓦token產出與整體有效吞吐量,進一步提升系統韌性,並且加速量產時程。

生態系全面力挺:2025下半年陸續上市

Vera Rubin平台已經獲得全球雲端服務商與系統製造商的支持,包括AWS、Google Cloud、微軟Azure、Oracle Cloud Infrastructure,以及CoreWeave、Lambda等GPU雲服務商都將採用。系統合作夥伴則涵蓋Cisco、Dell、HPE、聯想、Supermicro,以及廣達、緯創、富士康、華碩、技嘉等台灣供應鏈。

AI實驗室如Anthropic、Meta、Mistral AI和OpenAI也計劃採用Vera Rubin平台來訓練更大、更強悍的AI模型,並且以更低的延遲和成本服務長上下文、多模態系統。

所有基於Vera Rubin的產品將於今年下半年起陸續上市。

資料來源

  • https://mashdigi.com/nvidias-vera-rubin-platform-has-officially-launched-seven-chips-work-together-to-create-a-proxy-ai-supercomputer/
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 [email protected] 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。