對標英偉達CUDA,華為宣佈開源CANN

(文/觀察者網 呂棟 編輯/張廣凱)
8月5日,在昇騰計算產業發展峯會上,華為輪值董事長徐直軍宣佈,華為昇騰硬件使能CANN全面開源開放,Mind系列應用使能套件及工具鏈全面開源,支持用户自主的深度挖潛和自定義開發,加速廣大開發者的創新步伐,讓昇騰更好用、更易用。
“華為AI戰略的核心是算力,並堅持昇騰硬件變現。”他説道。
CANN的全稱是“神經網絡異構計算架構”(Compute Architecture for Neural Networks),它的角色,是把上層AI訓練框架(如PyTorch、TensorFlow、MindSpore等)和底層昇騰芯片連接起來的橋樑,讓開發者不用關心芯片細節就能調用底層算力。
與CANN作用類似的,還有英偉達的CUDA和AMD的ROCm,以及中國摩爾線程的MUSA、壁仞科技的BIRENSUPA、寒武紀的Neuware和海光信息的DTK等等。但最知名和影響力最大的還是英偉達的CUDA,它與英偉達GPU和NVlink構成英偉達的核心護城河。

AI全棧軟硬件架構
CUDA並不是單點技術,而是由多種技能棧和算子加速庫等組成的軟件生態系統。
“CUDA生態系統埋藏着巨大的遷移成本,它充當PyTorch和英偉達GPU之間的橋樑。從CUDA遷移的開發者通常必須重寫大量代碼,被迫使用不太成熟的替代庫。此外,開發者還會失去圍繞CUDA發展起來的龐大故障排除社區的支持。”有行業人士對觀察者網説道。
換言之,英偉達GPU之所以受歡迎,並不僅是因為硬件的性能高,同時也因為CUDA軟件系統生態的完善,讓開發者可以更高效的發揮GPU本身的性能,降低使用成本。
華為在制裁前後發展了自己的昇騰芯片,雖然昇騰是NPU架構,但也需要CANN來發揮“CUDA”的角色。與CANN配套的是華為自研深度學習框架MindSpore,其作用類似於PyTorch,這些工具共同構成了華為原生的AI軟硬件方案,以對標以英偉達為中心的PyTorch+CUDA方案。
2024年財報披露,華為持續構建昇騰產品解決方案在性能、易用性、開放生態等方面的競爭力,CANN升級到8.0版本,新增200多個深度優化的基礎算子、80多個融合算子、100多個Ascend C API,典型算子開發週期從2人月縮短至1.5人周……同時支持圖模式能力擴展庫,提升PyTorch在昇騰上的大模型推理性能。
為了擴大生態圈,CANN逐步兼容了更多AI框架。截至目前,CANN已支持包括PyTorch、MindSpore、TensorFlow、飛槳、ONNX、計圖、OpenCV和OpenMMLab等深度學習框架與第三方庫。
華為專家還對觀察者網表示,“我們堅持CANN實現分層深度開放,從最底層的算子開發層,到模型開發層、推理層,進一步兼容三方開源框架,讓運行在三方框架、推理引擎上的模型/應用遷移至昇騰無需修改。面向應用開發層,我們將面向應用開發提供更多SDK,讓應用部署更便捷,模型訓練和推理更高效。”

CANN支持的深度學習框架與第三方庫
但不可否認,與發展了18年的CUDA生態相比,剛起步六七年的CANN,易用性和生態豐富度仍存在差距,並且任重道遠。去年9月外媒報道,為了讓客户適應新生態,華為效仿英偉達最初推廣CUDA的策略,向百度、科大訊飛和騰訊派遣了工程團隊,幫助他們在CANN環境中重現和優化現有的基於CUDA的訓練代碼。
“開發者在社交媒體上表達不滿並不是壞事,相反將有助於華為改進CANN。發展新的生態絕不是一日之功,要知道英偉達花了18年才打造出如今的CUDA生態,即便華為在壓力之下,構建一個有競爭力的軟件生態系統也需要數年時間。起初可能出於無奈之舉,隨着時間的推移,開發者可能會逐漸形成習慣,最終讓CANN等軟件形成能與英偉達軟件棧相抗衡的基礎設施。”有行業人士評論道。
相比CUDA閉源,此次CANN開源,無疑是華為希望儘快擴大CANN生態圈的最新舉措。華為表示,來自AI領軍企業、夥伴、高校與科研機構的代表共同探討了如何更好地構建開源開放的昇騰生態,共同發起了《CANN開源開放生態共建倡議》,以凝聚產業力量,共探AI邊界,共建昇騰生態。
之前,華為已在2020年開源了自研AI框架MindSpore,2024年已經以30.26%的新增份額位列中國AI框架市場第一,再加上華為歷年開放的鴻蒙、歐拉、高斯、倉頡等基礎軟件,也算是用行動回應了某院士發表的“華為在技術發展上採取封閉式、壟斷性模式”的觀點。
本文系觀察者網獨家稿件,未經授權,不得轉載。