科技雲報到:西湖大學、智元機器人都選它,存儲成為AI下一個風口_風聞
科技云报到-深度原创企业级IT内容行家09-03 11:22
科技雲報到原創。
當英偉達以4萬億美元市值成為AI時代“芯”皇、寒武紀超越茅台登頂A股股王,全球正在迎接AI的高光時刻。
然而,在科技盛世之下,AI行業正陷入一場“看不見的焦慮”。GPT-4訓練數據量突破萬億級、自動駕駛汽車單日採集數據達TB級、機器人每一次動作都生成海量多模態數據。多數人將目光聚焦在算力芯片的性能競賽上,然而卻忽略了一個更核心的問題:沒有足夠強大的“存力”,再頂尖的算力也只是“無米之炊”。
傳統存儲的傳輸速度跟不上GPU的計算節奏,導致算力常年處於“等米下鍋”的閒置狀態。“存不下、傳不快、不安全”,已成為AI產業突破瓶頸的三大攔路虎。
就在行業陷入存力困境之時,2023年,曙光存儲在業內首次提出“先進存力”概念,打破傳統存儲“被動存數據”的侷限;2024年,又聯合IDC發佈《構建面向智能化時代的先進存力中心》白皮書,為AI時代的存力建設劃定標準。
2025年8月29日,曙光存儲副總裁郭照斌在第二屆CCF中國存儲大會上宣佈,曙光“超級隧道”技術可以更好地應對PCIe6.0時代,為下一代國產芯片效能釋放提供加速引擎。
從“先進存力”概念提出,到“超級隧道”技術破解傳輸瓶頸,再到佈局PCIe 6.0未來,曙光存儲正基於自主技術塑造起以先進存力為的下一個AI增長引擎。
曙光存儲副總裁 郭照斌
“先進存力”不止是存數據更是AI第二引擎
提到存儲,很多人的第一反應是硬盤、服務器這類硬件載體。但在AI時代,這種認知早已過時。曙光存儲提出的“先進存力”,早已超越“存放數據”的基礎功能,成為能主動釋放數據價值、驅動AI運轉的“第二引擎”。
2023年,曙光存儲首次提出“先進存力”概念時,就明確了其核心圍繞“海量、高效、融合、綠色、安全”五大維度展開,這與傳統存儲的定位形成了本質區別。
傳統存儲更像“數據倉庫”,只負責接收和保管數據,至於數據如何被高效調取、如何與不同場景適配、如何降低存儲過程中的能耗,都不在其考慮範圍內。
而曙光提出的先進存力是AI時代的又一關鍵基礎設施。先進存力不僅可以支持EB級存儲,輕鬆裝下AI大模型的萬億級訓練數據,還能通過AI加速技術,能夠讓數據調取速度匹配算力需求,避免算力閒置。同時,兼容文件、塊、對象等多種協議,無論是自動駕駛的視頻數據,還是機器人的傳感器數據,都能無縫接入。另外,先進存力採用液冷技術降低能耗,大幅降低存儲系統PUE(能源使用效率),更通過全棧自主技術,從芯片到系統層層設防,保障核心數據不泄露。
在白皮書裏,先進存力被明確為“數據要素價值釋放的核心載體”,它不再是孤立的存儲設備,而是與算力、運力(數據傳輸能力)深度協同的基礎設施。
比如在重慶先進數據中心,曙光存儲構建的先進存力,一邊連接着當地智算中心的數千顆GPU,一邊對接企業的生產數據,通過智能調度讓數據“按需流動”。當AI訓練需要熱數據時,數據能夠毫秒級直達GPU;訓練完成後的冷數據,將自動歸檔至低成本存儲節點,既保證效率又控制成本。
這種協同能力,讓先進存力具備了五大核心特徵:高效融合,可以兼容多協議,打破數據孤島;提質增效,AI加速技術提升數據處理效率;全域流動,智能調度讓數據在不同節點間無縫流轉;安全可靠,全棧自主技術抵禦風險;綠色節能,液冷技術降低能耗。
國家氣象局的實踐就是最好證明,曙光為其構建的橫跨三地的存力平台,能夠即時同步全國的氣象數據,既滿足天氣預報AI模型的即時計算需求,又能安全歸檔歷史氣象數據,同時能耗較傳統方案降大幅下降。
對於AI產業而言,先進存力的意義在於,它解決了數據在哪存、怎麼傳、如何用的根本問題,讓算力不再空轉,讓數據真正成為能驅動AI進化的“燃料”。
“超級隧道”讓數據傳輸“快到飛起”
如果將先進存力視為AI的“第二引擎”,那麼曙光存儲的“超級隧道”技術,就是讓這台引擎飛速運轉的“傳動軸”,其通過自主可控技術,破解了長期以來數據傳輸的“卡脖子”難題,讓數據從“擁堵慢走”變成“一鍵直達”。
在AI產業中,長期存在一個認知誤區,認為只有靠國外高端GPU才能提升計算效率。但曙光存儲發現,傳統存儲架構中,CPU的性能其實被嚴重浪費。由於存儲與CPU、GPU之間的傳輸路徑存在加鎖機制,多個進程會爭搶資源,導致CPU算力無法充分釋放,最終不得不依賴更多GPU來彌補效率差。
“超級隧道”核心解決的問題就是打破這種依賴,通過激活CPU潛力,降低對國外GPU的依賴,同時減少關鍵硬件的對外依存度,構建出了一條自主可控的技術路徑,這意味着企業無需高價採購國外GPU,也能實現AI性能的提升。
傳統存儲的傳輸路徑,就像一條單車道加紅綠燈的公路,多個CPU核共享同一批資源,就像多輛車搶一條車道,還得等紅綠燈(加鎖機制),擁堵是常態。
而“超級隧道”則重構了這條公路。它為每個CPU核配備專屬車道,構建起從網卡到CPU再到硬盤“一杆子插到底”的無衝突傳輸路徑,徹底去除加鎖機制。
具體來説,這個過程分為三步:
首先,為每個CPU核分配獨佔的網卡、內存、硬盤資源,避免資源爭搶。
其次,用AI預測調度技術,提前判斷數據的傳輸需求,讓數據“走哪條路”提前規劃好。
最後,通過軟硬件協同,讓數據在傳輸過程中不跨域、不等待,實現就近訪問。
就像快遞配送,傳統方式是所有快遞先到一個分揀中心(共享資源),再進行分發,而“超級隧道”則是每個快遞員都有專屬配送路線(獨佔資源),直接從倉庫送到客户手中,效率自然天差地別。
從技術手段上看,“超級隧道”的高效不是靠單一技術實現的,而是多維度技術的協同突破,每一項技術都直擊行業痛點。
比如,多NUMA/CPU與微控模型,解決了多核效率低難題。傳統服務器多采用單CPU,性能強但成本高,曙光則用多NUMA(非一致內存訪問)或多CPU提升性能,但多CPU 之間的訪問延遲會成為新瓶頸。為此,曙光研發“微控模型”,精準適配硬件特性,讓多CPU之間的訪問代價降低60%,既提升性能又控制成本。
在軟硬件協同方面,曙光存儲實現了每個部件各司其職互不干擾。CPU、內存、硬盤採用“分組作業”,每個NUMA域都有自己的“專屬網卡”,避免跨域訪問的延遲。數據被切分到不同邏輯空間,每個空間對應專屬硬件資源,就像多條“垂直隧道”,數據從進入到落地,全程在同一隧道內完成,不與其他數據“搶道”。
曙光存儲獨有的XIO技術(XNIO/XDIO)融合了無鎖輪詢與RTC處理,實現數據傳輸“一鍵直達”。在任務處理方面,XIO技術可以實現200納秒協程切換,能夠輕鬆應對百萬級高併發需求。在數據傳輸上,XIO技術省去很多中間步驟,與傳統傳輸方式相比,傳輸效率提升10倍。
“超級隧道”技術基於無鎖架構、極簡交互及軟硬件協同等核心設計,是當前業內唯一能夠充分釋放PCIe 5.0性能的存儲技術。
PCIe是一種高速串行計算機擴展總線標準,是由英特爾在2001年提出的。PCIe作為連接x86服務器、PC和筆記本電腦核心處理器與外設的重要方式取得了巨大成功。隨着CPU和GPU性能不斷提升,PCIe總線速度也在同步增長,每一代都實現帶寬翻倍。
PCIe 5.0的帶寬較4.0提升100%,能徹底消除傳統架構的帶寬瓶頸,而PCIe 6.0採用PAM4編碼技術,單通道速率達64GT/s,未來可支持800GE網絡傳輸。
目前,超級隧道支持的集中式全閃存儲產品已經實現億級IOPS性能、202微妙級時延,面向AI加速場景,可成功將推理時延降低80%。曙光分佈式存儲通過五級加速+三級協同技術,可將GPU利用率從30-40%提高至70%-80%,訓練速度提升4倍,萬億參數模型訓練週期壓縮60%以上。
在曙光存儲的兩大產品線——分佈式全閃存儲ParaStor、集中式全閃存儲FlashNexus中,“超級隧道”都已有不同維度的應用。
從CPU、PCIe交換芯片到NVMe SSD,曙光存儲構建了業界唯一全鏈路PCIe5.0通道,徹底消除傳統架構中的帶寬瓶頸。
為深化先進存力理念,曙光存儲“超級隧道”技術再次加磅,將更好應對最新PCle6.0標準,為下一代國產芯片應運而生,為加速突破AI能力邊界、應用落地塑造更強引擎。
AI行業應用釋放存力價值
技術的價值,最終要靠實踐驗證。從西湖大學的AI科研,到造車新勢力的智能駕駛,再到機器人具身智能,曙光存儲的先進存力方案已在多個關鍵場景落地,成為推動行業進步的“隱形動力”。
西湖大學作為聚焦前沿科學的研究機構,在AI與生命科學、材料科學的交叉領域投入重兵。比如用AI預測蛋白質結構、用機器學習篩選新型材料,這些研究都需要處理海量實驗數據,對存儲性能的要求遠超普通場景。
西湖大學在內部測試中發現,通過調整部分存儲性能,可以將AI科研的計算過程加快30%,因此選擇主打“AI加速”的曙光全閃存儲。
技術方面,曙光存儲實現了單節點帶寬超越國際廠商4倍以上,為西湖大學的AI業務按下“加速鍵”。其次,曙光存儲20多年來,已為多個世界級產學研項目提供保障,從前期設計、供應鏈保障,再到部署後的彈性調整,全方位匹配多學科平台需求,能夠滿足西湖大學對存儲設備的穩定性和服務響應速度。
更為重要的是,西湖大學的科研數據多為核心機密,曙光存儲採用100%自研的軟硬件架構,從芯片到系統層層加密,同時配備多重冗餘設計,即使某個硬件部件故障,系統也能自動切換至備用節點,數據不中斷、不丟失。目前,這套存儲系統已支撐西湖大學在蛋白質結構預測領域取得多項突破。
人形機器人的研發,對存力的要求更為苛刻。機器人的每一次行走、抓取、交互,都會生成視覺、觸覺、聽覺等多模態數據,這些數據需要即時傳輸至AI模型進行分析,再快速反饋指令,任何延遲都可能導致動作失誤。
智元機器人作為具身智能領域的領先企業,之所以能在半年內推出多款商用人形機器人,背後離不開曙光存儲的全力支持。
智元機器人的關注點在於“快速迭代”,其多模態大模型需要持續接收海量數據進行訓練,同時要快速沉澱數據資產,以支撐新品研發。
針對這一需求,曙光存儲為智元定製了“分佈式全閃+對象存儲”的分級架構,前端採用ParaStor分佈式全閃存儲,提供500GB/s的聚合讀帶寬,能即時傳輸機器人的多模態數據,支撐AI模型的快速訓練,後端搭配分佈式對象存儲,單桶支持5萬IOPS,能安全歸檔歷史訓練數據,同時成本可控。
兩套方案協同配合,形成“分級存儲”,不同需求的數據都能找到合適的存放地,不僅實現了高效的AI模型訓練,數據也能及時沉澱複用,在機器人模型訓練和商業化落地方面實現效率倍增。
AI時代的存力革命,才剛剛開始。隨着大模型向萬億參數、機器人向通用智能、自動駕駛向全場景演進,存力的重要性將愈發凸顯。從首次提出“先進存力”定義行業標準,到用“超級隧道”技術突破傳輸瓶頸,再到更好地應對PCIe 6.0標準,曙光存儲的每一步動作,都緊扣AI產業的存力需求,解決的不僅是“存不下、傳不快、不安全”的表層問題,更是通過自主可控的技術,為AI產業構建了可持續發展的存力底座。
這場存力革命,沒有旁觀者。而曙光存儲,早已站在了潮頭。
【關於科技雲報到】
企業級IT領域Top10新媒體。聚焦雲計算、人工智能、大模型、網絡安全、大數據、區塊鏈等企業級科技領域。原創文章和視頻獲工信部權威認可,是世界人工智能大會、數博會、國家網絡安全宣傳週活動、可信雲大會與全球雲計算等大型活動的官方指定傳播媒體之一。