英偉達芯片在人工智能系統訓練中取得進展,新數據顯示 | 路透社
Stephen Nellis
舊金山,6月4日(路透社)——英偉達(NVDA.O),新標籤頁打開最新芯片在訓練大型人工智能系統方面取得進展,週三公佈的新數據顯示,訓練大語言模型所需的芯片數量大幅減少。非營利組織MLCommons發佈了關於英偉達、AMD(AMD.O),新標籤頁打開等公司芯片訓練性能的新數據,這些數據是人工智能系統通過海量數據學習時的基準參考。廣告·繼續滾動儘管股市關注焦點已轉向更廣泛的AI推理市場(即AI系統處理用户提問的環節),但訓練這些系統所需的芯片數量仍是重要競爭指標。中國公司深度求索宣稱,其開發的聊天機器人僅用遠少於美國競爭對手的芯片數量就實現了競爭力。
這是MLCommons首次發佈關於芯片在訓練Llama 3.1 405B等AI系統性能的數據,該開源AI模型由Meta(META.O),新標籤頁打開發佈。英偉達及其合作伙伴是唯一提交該大模型訓練數據的參與者,數據顯示其新一代Blackwell芯片的單芯片速度較前代Hopper芯片快兩倍以上。
廣告 · 繼續滾動在Nvidia新芯片的最快測試結果中,2,496塊Blackwell芯片在27分鐘內完成了訓練測試。根據數據,要達到更快的速度,需要大約三倍於Nvidia上一代芯片的數量。
在新聞發佈會上,CoreWeave的產品總監Chetan Kapoor(該公司與Nvidia合作完成了部分測試結果)表示,他觀察到AI行業的一個趨勢:將較小規模的芯片組集中在子系統中,用於獨立的AI訓練任務,而不是創建由10萬塊或更多芯片組成的同質集羣。
“通過這種方法,他們可以繼續加速或縮短這些擁有數萬億參數的瘋狂模型的訓練時間,”Kapoor説道。
(舊金山,Stephen Nellis報道)
(聖保羅編輯部翻譯)
路透社 PVB
- 推薦主題:
- 科技