阿里雲AI基礎設施獲2024世界互聯網大會領先科技獎
11月19日,2024年世界互聯網大會領先科技獎在烏鎮揭曉,阿里雲面向AI的雲計算基礎設施榮獲該獎,成為世界互聯網大會史上首個以AI基礎設施整體獲獎的科技成果。面向AI時代,阿里雲全面重構了一個從底層硬件到計算、存儲、網絡、數據處理、模型訓練和推理平台的全棧技術架構體系,成為國內最早自研、佈局最深入的AI基礎設施。目前,80%的中國科技公司、65%的專精特新“小巨人”企業和60%的A股上市公司使用阿里雲的算力服務。
隨着人工智能加速發展,以CPU為核心的經典計算體系正快速向GPU主導的加速計算體系轉移,同時,AI大模型的訓練數據和應用場景正快速增長,這對底層基礎設施提出了性能和效率的全新要求。大會指出,阿里雲通過軟硬一體體系化創新,面向AI對雲計算的全棧架構實現了技術全新改造,將數據中心全面升級為一台超級智能計算機。

在計算層,阿里雲研發出全新的磐久AI服務器,單機支持16卡、顯存1.5T,並創新AI算法預測GPU故障,準確率達92%,業界領先;同時,首次推出支持多種生態的Serverless化GPU容器算力,實現ACS容器計算親和度和性能的全方位提升。在存儲層,文件存儲CPFS可為AI智算提供指數級擴展存儲能力,並通過冷熱數據分層大幅節省成本。在網絡層,高性能網絡架構HPN7.0可穩定連接超過10萬個GPU。在平台層,人工智能平台PAI,已實現萬卡級別的訓練推理一體化彈性調度,AI算力有效利用率超90%;湖倉一體化平台OpenLake,可提供大數據搜索、AI一體化能力體系;多模數據管理平台DMS,可實現跨雲數據庫、數據倉庫、數據湖統一治理,幫助業務決策提效10倍。

基於全棧優化,阿里雲AI基礎設施的系統穩定性和計算效率大為提升,連續訓練有效時長達到 99%,GPU 使用效率(MFU)提升了 20% 以上。全新打造的阿里雲靈駿智算集羣,可支持10 萬張GPU卡高效互聯,在萬卡規模下的性能線性增長率達到 96%,可提供 20TB/S 的超高吞吐並行存儲,網絡有效使用率達到99%的業界領先水平。

據介紹,阿里雲AI Infra相關核心技術已被SIGCOMM、HPCA、ICDE、ACM等多個國際頂級學術會議收錄認可。基於阿里雲AI Infra打造的通義千問大模型,已成為全球性能領先的基礎模型,服務中國一汽、聯想、微博、攜程、喜馬拉雅、三得利(中國)等30多萬企業客户;百川智能、月之暗面、零一萬物等大部分中國大模型公司都在阿里雲上進行AI創新;復旦大學、浙江大學等國內50多所院校機構也攜手阿里雲開展AI for Science的相關研究。
世界互聯網大會烏鎮峯會已成功舉辦十年,「領先科技獎」也成為科技領域全年最重磅的獎項之一。此前,阿里雲有多項自研技術獲世界互聯網大會領先科技成果獎肯定,包括飛天雲操作系統、PolarDB數據庫、神龍虛擬化架構、盤古分佈式存儲、ODPS大數據平台等,阿里雲也成為獲獎最多、涉及領域最廣的中國科技企業之一。