DeepSeek據報繞開英偉達編程框架 適配中國國產GPU | 聯合早報
zaobao
(紐約/北京綜合訊)中國人工智能(AI)初創企業深度求索(DeepSeek)據報繞開了美國AI巨企英偉達的編程框架,為日後適配中國國產圖形處理器做準備。
據美國科技網站“Tom’s Hardware”1月29日報道,韓國未來資產證券在分析DeepSeek技術論文時發現,DeepSeek在花兩個月訓練所研發的語言大模型時,只用了英偉達2048個含H800晶片的圖形處理器(GPU),硬件效能比AI領域佼佼者Meta高出10倍。
分析指出,DeepSeek這項突破通過使用英偉達為GPU設計的中間指令集框架(Parallel Thread Execution,簡稱PTX),而不是英偉達開發的軟硬體統一計算架構(Compute Unified Device Architecture,簡稱CUDA)。
CUDA是一種通用編程框架,允許開發者利用英偉達的GPU進行通用計算。
據網易新聞和快科技報道,大模型開發商在使用英偉達GPU,一般是基於CUDA做研發。使用CUDA對開發者的要求較低,因為CUDA裏已經封裝好一些函數,使用時完全無需理會太多細節,但肯定會損失執行效率。
延伸閲讀
[DeepSeek或引發新一輪關税壁壘出口管制 學者:AI競爭新常態
](https://www.bdggg.com/2025/zaobao/news_2025_01_31_736324)
[中國官方據報在DeepSeek發佈前造勢 分析:難免成為對抗美國科技封鎖工具
](https://www.bdggg.com/2025/zaobao/news_2025_02_01_736581)
由於CUDA是通用型編程框架,因此會導致訓練模型時損失一些靈活性。 DeepSeek的做法是直接使用PTX,以繞開硬件對訓練速度的限制,可縮短訓練時長。其他模型訓練時長要10天,DeepSeek五天就能完成。
快科技引述消息人士稱,DeepSeek擁有一些擅長寫PTX語言的內部開發者,倘若DeepSeek未來有意改適配中國國產的GPU,在硬體適配方面將更得心應手。