1
1
在 AI 硬體領域,NVIDIA 與 SK Hynix 的合作關係可說是牢不可破。靠著高品質的高頻寬記憶體(HBM),SK Hynix 成功搭上 NVIDIA 的 AI 列車,成為記憶體市場的最大贏家。然而,這對強強聯手的組合似乎並不滿足於現狀。根據韓國 Chosun Biz 的最新報導,雙方正將合作觸角延伸至儲存領域,計畫共同開發一款專為人工智慧工作負載量身打造的「AI SSD」。
這項代號為「Storage Next」的內部專案,顯示出 AI 運算的重心正在發生微妙的轉移。隨著 AI 應用從單純的「模型訓練(Training)」逐漸走向大規模的「推論(Inference)」,硬體架構的需求也隨之改變。推論階段需要更低延遲、更高吞吐量的數據存取環境,而既有的儲存解決方案似乎已無法跟上 AI 模型膨脹的速度。NVIDIA 先前已決定在未來的 Rubin CPX GPU 中整合通用的 GDDR7 記憶體來加速預填充(prefill)作業,現在看來,他們打算對 NAND Flash 儲存晶片進行類似的革命性改造。
這款傳聞中的 AI SSD 究竟有多強?目前的爆料指出,其目標是達到驚人的 1 億 IOPS(每秒輸入/輸出操作次數)。為了讓大家更有概念,這個數字比現今頂級的企業級 SSD 快了數倍甚至十倍以上。SK Hynix 計畫在 2026 年底前展示原型機,並預計於 2027 年正式推出。
為什麼我們需要這麼快的 SSD?原因在於 AI 模型的參數規模實在太大了。目前的 HBM 雖然速度極快,但容量有限且價格昂貴;一般的 DRAM 雖然容量較大,但面對動輒數千億參數的巨型模型仍顯得捉襟見肘。這款 AI SSD 的設計初衷,就是創造一個「類記憶體(Pseudo-memory)」層。透過先進的 NAND Flash 技術與特製的控制器架構,這款 SSD 能以極高的效率持續提供龐大的模型參數給 GPU,填補傳統儲存裝置與高速記憶體之間的巨大效能鴻溝。這將徹底釋放 AI 推論的潛力,讓巨型模型能更流暢地運行。
雖然技術願景令人振奮,但這項消息卻讓供應鏈分析師們捏了一把冷汗。目前的 NAND Flash 供應鏈本就因為雲端服務供應商(CSP)與 AI 巨頭的搶購而處於緊繃狀態。如果這種高效能的 AI SSD 真的成為主流標準,勢必會消耗掉大量的頂級 NAND 產能。
我們很可能會看到類似目前 DRAM 市場的劇本重演:產能被 AI 需求吸乾,導致價格飆漲與供貨短缺。屆時,不只是企業級客戶,就連一般的消費者 SSD 市場也可能受到波及,面臨漲價或買不到貨的窘境(其實現在已經稍微有影響了)。這種「AI 優先」的資源排擠效應,正在讓原本就脆弱的半導體供需平衡變得更加難以預測。對於記憶體與儲存產業來說,未來的日子恐怕是機會與危機並存。
延伸閱讀
歡迎加入我們的 Facebook 粉絲團,隨時掌握最新消息!
喜歡看圖說故事的話,也可以追蹤 Instagram 專頁!
我們也有 Threads 可以隨時 follow!