TechSpace 鐵客空間

每日科技新聞新知、硬體開箱評測、賣場優惠!

NVIDIA 大量下單 HBM3E 記憶體因應 Hopper H200 和 Blackwell B100 AI 顯示卡

NVIDIA 投入大量資金購買 HBM3E 記憶體以備足夠庫存,用於其下一代 Hopper H200 和 Blackwell B100 AI 顯示卡。
NVIDIA H200 GPU Grace Hopper Superchips hbm3e memory

NVIDIA 大量下單 HBM3E 記憶體因應 Hopper H200 和 Blackwell B100 AI 顯示卡

韓國媒體透露,NVIDIA 從 SK hynix 和 Micron 訂購大量 HBM3E 記憶體,以準備其面向 AI 領域的下一代產品,也就是 Hopper H200 和 Blackwell B100。

NVIDIA 為 HBM3E 記憶體預付了約 7,000 億到 1 兆韓元,雖然數字仍可能變動,但考慮到 AI 行業的龐大需求,實際金額預計接近 1 兆韓元,也就是大約 240 億新台幣​​。NVIDIA 這項大額預付款導致記憶體半導體公司正努力擴大 HBM 生產能力,特別是 SK Hynix 這家最大供應商,據悉期計劃將從 NVIDIA 收到的預付款集中投資於擴建 TSV 設施。而三星電子也已完成與 NVIDIA 的 HBM3 和 HBM3E 產品適用性測試,並簽訂了合約​​。

– Biz.Chosun

HBM3E 目前計劃用於 NVIDIA 下一代 Blackwell AI 顯示卡,預計將於 2024 年第二季推出,並將通過採用晶片設計,在每瓦效能方面帶來提升。NVIDIA 也計劃在 Hopper H200 中搭載全球最快的 HBM3E 記憶體,這對 NVIDIA 在 AI 和高性能計算(HPC)市場具有重要意義。

NVIDIA hbm3e MLPerf Inference v3.1 Hopper H100 Grace Hopper GH200 L4 GPU Performance

NVIDIA 在資料中心領域的收入預期將會非常高,因此提前一步做此操作也並不意外,該公司計劃到 2027 年通過 AI 驅動銷售產生高達 3,000 億美元收入,因此確保其 AI 顯示卡能向客戶穩定供貨勢必成為其主要目標。此外,HBM3E 購入也將促進 HBM 行業發展,特別是在設施擴建方面,像 SK hynix 和 Micron 這樣的公司其實一直面臨訂單積壓的大問題。

NVIDIA 目前在 AI 領域處於主導地位,其在 CUDA 平台及其硬體部門方面取得的進展已經改變市場狀況,未來還會有什麼樣的發展仍是相當令人期待與好奇。

延伸閱讀

歡迎加入我們的 Facebook 粉絲團,隨時掌握最新消息!
喜歡看圖說故事的話,也可以追蹤 Instagram 專頁!
我們也有 Google News 可以隨時 follow!

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *