英特爾與阿里雲深度合作 CPU重新定義“中央調度”
【環球網科技報道 記者 李文瑤】在2025雲棲大會上,英特爾與阿里雲聯合宣佈了一系列基於新一代至強®6處理器的雲實例與存儲方案落地,涵蓋第九代ECS g9i實例、u2i普惠算力實例、內存增強型實例re8,以及支持CXL 2.0內存池化的磐久AI存儲服務器。
這些成果不僅是雙方技術協同的階段性答卷,也折射出AI規模化落地對雲計算基礎設施提出的新挑戰——高性能、高彈性、低TCO(總體擁有成本)正成為全球雲廠商競速的關鍵指標。
從“一核多用”到“內存池化”,雲基礎設施走向柔性架構
“通過英特爾的BIOS Setting關核技術,我們能用同一顆120核的至強®6處理器,動態調配出72核、96核等不同規格的實例,服務於高性能計算、通用企業負載和成本敏感型場景。” 阿里雲彈性計算產品線、存儲產品線產品負責人陳起鯤在接受採訪時指出,硬件統一化極大地提升了雲廠商的資源利用率和彈性調度能力。

陳起鯤進一步解釋道,阿里雲在全球29個區域、91個可用區中部署同一套硬件架構,通過軟件定義的方式實現資源動態分配,從而在面對突發性算力需求時,能像“水電煤”一樣實現快速供給。

而在內存層面,雙方合作推出的CXL (Compute Express Link) 2.0內存池化技術,則被視為下一代雲架構的重要突破。英特爾數據中心與人工智能集團副總裁兼中國區總經理陳葆立表示,CXL不僅實現了內存容量的靈活擴展,更通過熱插拔、多通道交織訪問等機制,提升了系統的可靠性與可維護性。阿里雲瑤池數據庫團隊基於CXL 2.0 Switch技術打造的PolarDB數據庫專用服務器,可實現和本地一樣低延遲、高帶寬的遠程內存訪問,延遲可低至百納秒級,帶寬吞吐達到數TB/s,從而讓內存資源“池化可共享、按需可調度”,計算、內存、存儲“全棧解耦”。
AI驅動算力異構化,CPU正重新定義“中央調度”角色
隨着AI模型從“單一巨量化”走向“大小模型協同”,算力需求也呈現出分層、異構的特徵。英特爾不僅在CPU層面集成AMX矩陣加速指令集,支持FP16、BF16等精度計算,還通過Gaudi AI加速器、Arc顯卡等產品組合,覆蓋從推理到訓練、從端到雲的全場景需求。
“至強6配上AMX,完全可以跑3B規模的模型。而在GPU集羣中,至強6作為‘機頭CPU’,承擔着數據預處理、I/O調度、資源池化管理等任務。”陳葆立指出,CPU在AI時代扮演的是“統籌者”角色,其通用性、兼容性與彈性,恰是雲底座最需要的特質。
阿里雲方面也強調,AI不等於GPU,許多場景下CPU更具性價比優勢。例如在向量檢索、視頻預處理、自動駕駛數據清洗等環節,基於至強6的實例展現出顯著性能提升。小鵬汽車通過採用g9i實例,每日PB級數據預處理吞吐大幅提升,成本得以下降。
軟硬協同與全球化交付能力成競爭分水嶺
在雲棲大會英特爾專場論壇中,阿里雲服務器研發首席架構師,資深技術專家劉禮寅多次提到“穩定性”與“工程支持能力”是雙方長期合作的基礎。據悉,阿里雲基於英特爾架構的實例穩定性比業界領先水平高一個數量級,背後是雙單路服務器設計、故障熱遷移、硬件預判等15年來在超大規模集羣運維中的積累。
此外,軟硬一體優化成為差異化競爭力的來源。例如,阿里雲在至強6平台上率先實現CXL 2.0內存池的產品化,並結合自研AliSCM持久內存、QAT壓縮加速、DMA數據直接存取等技術,構建起從硬件到平台層的全鏈路優化能力。
陳起鯤透露,目前阿里雲商業化規模遠超集團內部需求,服務覆蓋全球多個區域,這意味着其技術方案需具備高度的標準化與適應性。“我們不僅要考慮性能,還要考慮功耗、機房密度、資源售賣率、碎片化資源利用等全鏈路成本。”
從“上雲”到“雲上智能化”,生態共築成必然發展路徑
本次大會中,英特爾亦展示了與通義千問基於OpenVINO在AI PC端的智能體工作流,體現出其“雲-邊-端”協同的戰略佈局。而阿里雲則通過Model as a Service、容器計算服務ACS等產品,將IaaS、PaaS、MaaS能力縱向整合,降低AI應用開發門檻。
在行業看來,AI正從技術探索進入規模化應用期,模型迭代速度加快、成本壓力凸顯,倒逼基礎設施走向更高效、更開放、更易用的架構。英特爾與阿里雲的合作,正是通過硬件性能提升、軟件棧深度優化、資源池化與解耦,為千行百業提供一條可擴展、可持續的智能化路徑。
雲棲大會現場,一位工程師對記者表示:“未來的數據中心,不會是單一的算力堆砌,而是CPU、內存、存儲、網絡、加速器各類資源池化後,按業務需求動態組合的‘活系統。”在這場以AI為名的雲端基建升級中,英特爾與阿里雲的合作,既是對當前算力挑戰的回應,也是對下一代雲計算架構的提前佈局。