SK Hynix繼與Sandisk合作共同開發基於DRAM堆疊的HBF高頻寬儲存技術後,SK Hynix公開表示已經與NVIDIA合作,開發為AI技術所開發、性能較傳統SSD高出十倍的AI SSD,NVIDIA將其稱為「Storage Next」,而Sk Hynix稱為AI-N P(AI NAND Performance),雙方已經進入概念驗證階段,預期2026年底公布原型,預期性能可達1億IOPS。
▲雖然HBM解決GPU與加速器的記憶體瓶頸,但成本高、容量不足成推論阻礙
HBM之所以在AI高速運算領域成為不可或缺的一部分,即是受到傳統記憶體是為CPU主導的運算所設計,導致傳輸架構、頻寬會影響GPU等待記憶體傳輸,HBM記憶體透過將DRAM堆疊的方式帶來更高的頻寬與減少延遲,使HBM的資料能高速向GPU傳輸。
不過隨著AI技術逐步發展,除了前端的AI模型訓練以外,AI推論開始落地,使AI推論需求成為新戰場;雖然HBM記憶體可提供高速的傳輸技術,但由於本質是基於揮發性記憶體的DRAM,且容量單位成本高昂,推論技術需要具備更大容量、更具成本效益的方式,也是當前儲存領域開始投入為AI而開發的NAND技術。
根據韓國媒體報導,SK Hynix已經積極布局AI NAND技術,包括與NVIDIA共同開發的AI-N P(Storage Next),與Sandisk合作的AI-N B(HBF)以外,還有一款著重具HDD級大容量與SSD性能的高成本效益的AI-N D。
AI-N P是為了確保處理大規模推論巨量資料輸出與輸入核心技術,盡可能減少AI運算與儲存間的瓶頸,提升處理速度與能源效率,據稱SK Hynix將為此開發新架構的NAND以及控制器。
至於與Sandisk合作的HBF,將由Sandisk提供快閃記憶體設計與大容量NAND技術,以SK Hynix的VFO技術將DRAM及NAND進行堆疊封裝(據稱採用16層DRAM與NAND堆疊封裝),使HBF能夠提供較傳統NAND更高的頻寬,並作為HBM技術的互補。


