螞蟻集團採用國產GPU替代英偉達,AI模型訓練成本降低20% | 南華早報
Ann Cao
螞蟻集團,作為阿里巴巴集團控股旗下的金融科技關聯公司,已能夠利用國產圖形處理器(GPU)訓練大語言模型(LLM),從而減少對英偉達高端芯片的依賴,並將訓練成本降低20%。這一進展源自一篇研究論文及媒體報道。負責大模型開發的螞蟻靈團隊披露,其擁有3000億參數的專家混合模型(MoE)“靈基增強版"可在"較低性能設備上實現有效訓練”。該研究成果發表於學術開放平台arXiv的最新論文中。
論文指出,通過規避高性能GPU,該模型在預訓練階段成功降低20%計算成本,同時性能仍可對標Qwen2.5-72B-Instruct、DeepSeek-V2.5-1210-Chat等主流模型。
這一突破使這家杭州金融科技巨頭與深度求索、字節跳動等國內企業站在同一戰線,共同降低受美國嚴格出口管制的高端英偉達芯片依賴。研究團隊在論文中強調:“這些成果證實了在算力較弱的硬件上訓練尖端大規模MoE模型的可行性,為基礎模型開發提供了更靈活、更具成本效益的算力選擇方案。”
MoE是一種機器學習技術,它通過多個專業知識網絡將問題空間劃分為同質區域。這項技術已被包括Grok、DeepSeek和阿里巴巴的Qwen在內的主流人工智能(AI)模型廣泛採用,用於將大語言模型擴展至萬億級參數規模,同時保持固定計算成本。阿里巴巴集團持有《南華早報》。