美AI公司高管:DeepSeek擁有5萬塊英偉達H100,但不能説
汤普济我在看着你

近日,美國人工智能數據基礎公司Scale AI創始人兼首席執行官Alexandr Wang在接受CNBC採訪時稱,DeepSeek擁有大約五萬塊英偉達H100芯片,但因美國出口管制措施,他們不能公開談論。
王在採訪中先誇讚了DeepSeek的性能稱,“我們發現,DeepSeek(R1)是目前表現最好的,或者説與美國最好的模型(GPT o1)處於同一水平。”
當被問及中美兩國在人工智能領域的競爭時,王表示:“長期以來,美國一直處於領先地位。”不過,他補充説,DeepSeek最新的模型確實試圖改變這一局面。王認為,“中國實驗室在聖誕節發佈一款驚天動地的模型具有象徵意義,要知道,我們其他人正在慶祝節日。”

Alexandr Wang(王)CNBC
DeepSeek於2024年12月26日(美國時間12月25日)當天發佈了一款“震撼性的模型”——DeepSeek-V3,隨後又於1月20日推出了一款專注於推理的強大AI模型DeepSeek-R1,對標OpenAI的o1模型。
DeepSeek利用較少且不夠先進的芯片訓練出了媲美ChatGPT的模型。DeepSeek在一份技術報告中稱,它使用超過2000個英偉達H800芯片集羣來訓練其參數為6710億的V3模型,而Meta訓練參數量4050億的Llama 3,用了16384塊更強的H100顯卡,花了54天。Deepseek的訓練效率為Meta的11倍。
DeepSeek表示,訓練其最新模型之一的成本為560萬美元(約合人民幣4100萬元)。相比之下,人工智能開發商Anthropic的首席執行官達里奧·阿莫迪 (Dario Amodei )去年提到的建立一個模型的成本為1億至10億美元。
CNBC曾發文稱:“DeepSeek-R1因其性能超越美國頂尖同類模型,且成本更低,算力消耗更少,引發了硅谷的恐慌。”
但王話鋒一轉,談到了中國人工智能企業可能為人工智能模型配備的GPU數量。他稱,“中國的實驗室擁有的H100芯片比人們想象的要多得多。”他補充道, “據我瞭解,DeepSeek擁有大約五萬塊H100芯片。”王認為,因為違反了美國實施的出口管制,所以DeepSeek不能談論這些。
英偉達的Hopper架構GPU如H100和H200,因其優秀的算力,出口受到美國政府的管制。拜登政府於2022年通過一項規定禁止英偉達向中國出售性能遠超其舊款GPU A100 的GPU系列,迫使英偉達開發了名為H800和A800的性能削減版芯片用以替代,但一年後的2023年10月,這兩款芯片也一併被禁止。目前,英偉達已在推廣其最新一代Blackwell架構的GPU,其出口依然受到限制。
王將中美之間的人工智能競賽描述為一場“AI戰爭”,並補充道,“美國將需要大量的計算能力和基礎設施,我們需要釋放美國的能量以推動這場AI繁榮。”
本文系觀察者網獨家稿件,未經授權,不得轉載。