SK海力士率先全球量產12層堆疊HBM3E,樹立AI內存市場新標杆_風聞
科闻社-科闻社官方账号-天助自助者2小时前

2024年9月26日,韓國存儲芯片巨頭SK海力士宣佈,率先在全球量產12層堆疊的HBM3E(高帶寬內存),實現現有HBM產品中最大36GB容量的突破。這一壯舉再次鞏固了SK海力士在高性能內存領域,特別是在面向AI應用的高帶寬內存市場中的領先地位。
SK海力士表示,HBM(High Bandwidth Memory,高帶寬內存)是一種高附加值且性能卓越的內存,主要通過垂直堆疊多個DRAM芯片來顯著提高數據處理速度。相較於傳統的DRAM產品,HBM能夠提供更高的帶寬,適應日益增長的人工智能(AI)和高性能計算(HPC)需求。
HBM技術自2013年問世以來,經歷了多次技術迭代,從最早的HBM1到HBM2、HBM2E、HBM3,再到如今的HBM3E。HBM3E作為HBM3的擴展版本,不僅在性能上大幅提升,容量也達到了新高度。現有HBM3E的最大容量為24GB,由8顆3GB的DRAM芯片垂直堆疊而成,而此次量產的12層堆疊產品將容量提升至36GB。SK海力士計劃在2024年底前向客户提供這一劃時代的產品,標誌着公司技術實力的進一步強化。
SK海力士強調,HBM技術已成為高性能計算的核心之一,特別是在AI領域對內存的速度、容量和穩定性提出了極高的要求。此次量產的12層HBM3E內存不僅在容量上提升50%,還通過多項技術創新確保產品的穩定性和可靠性。
為了實現12層堆疊與現有8層產品同等厚度的同時,增加內存容量,SK海力士將單個DRAM芯片的厚度削減了40%。此外,公司採用了硅通孔技術(TSV)來實現芯片的垂直互聯。該技術能夠有效提升數據傳輸效率,確保在大規模AI模型運行時的高效計算。
HBM3E的速度也得到了顯著提升。新產品的運行速度達到了9.6Gbps,是目前市場上最快的內存速度之一。以當前熱門的LLM(大型語言模型)Llama 3 70B為例,搭載四個HBM3E模塊的GPU每秒可以讀取35次700億個參數,大幅提高了AI模型的運行效率。
在高密度芯片堆疊過程中,穩定性和散熱性能一直是挑戰。SK海力士通過採用先進的MR-MUF(Molded Underfill)工藝,不僅解決了多層芯片堆疊可能導致的結構性問題,還在散熱性能上相較上一代產品提升了10%。這一改進不僅有效增強了產品的熱管理能力,還通過減少翹曲,確保了芯片在高負荷下的長期穩定性。
SK海力士自2013年推出全球首款HBM內存以來,一直是該技術的主要推動者。如今,隨着HBM3E的量產,公司再次證明了其在AI內存領域的領先地位。SK海力士表示,未來將繼續推進新一代內存產品的開發,以迎接AI時代日益增長的計算需求。
公司AI Infra業務負責人金柱善表示:“我們再一次突破了技術壁壘,證明了我們在AI內存市場中的獨特主導地位。為應對未來AI時代的挑戰,SK海力士將持續創新,確保在全球AI內存供應市場中的頂級地位。”
隨着AI應用的快速發展,市場對高帶寬內存的需求將持續增長。HBM技術憑藉其高帶寬、低功耗和高性能的優勢,正在成為AI訓練和推理任務中的關鍵技術支撐。SK海力士的HBM3E產品不僅滿足了當前AI企業的需求,也為未來AI應用的擴展提供了堅實的技術基礎。
此次SK海力士全球率先量產12層堆疊的HBM3E產品,不僅展示了其在高帶寬內存技術上的卓越能力,也為未來的技術發展指明瞭方向。在全球內存市場競爭日益激烈的背景下,SK海力士通過不斷的技術創新和市場拓展,進一步鞏固了其作為行業領導者的地位。
隨着AI、大數據和雲計算等新興技術的快速發展,高性能內存的需求將持續上升。SK海力士憑藉其深厚的技術積累和敏鋭的市場洞察力,必將在未來的競爭中佔據更加重要的地位,為全球科技創新貢獻力量。
*免責聲明:以上內容整理自網絡,僅供交流學習之用。如有內容、版權問題,請留言與我們聯繫進行刪除。