白呀白Talk:美升級英偉達AI芯片限制,要如何應對?_風聞
我心飞翔666-10-23 10:37
美針對人工智能AI芯片的出口新規,要求進一步細化標準,同時要求美國芯片公司詳細報告芯片的出貨量。推出更加嚴格的綜合性參數標準,全方位的阻止高階AI芯片出口,以堵漏英偉達在去年針對中國市場推出的A800、H800等特供版芯片。阻止英偉達、AMD等企業繼續向中國繼續出口先進的AI芯片。
與此同時,在十七日當天,美商部還將壁仞科技和摩爾線程等多家中國科技企業列入了實體清單,意在進一步限制我們國產GPU顯卡的發展。
看來,未來我們人工智能面臨的情況,不只是英偉達GPU漲價缺貨的問題了,而更會面臨的是無法買到、無法獲取的一個難題。無論是購買英偉達的GPU,還是使用基於GPU的雲服務,更具體的説,對未來大模型訓練需要的算力指數級別的提升。都會遇到前所未有的風險。
那麼此時此刻,創新、突破、尋找新的解決方案,成為了當務之急,也是目前唯一的一個選項。
首先,如果我們要理解為何限制英偉達GPU出口會有如此大的影響,那麼我們就要理解AI產業為何如此依賴英偉達的顯卡?
隨着2002年11月份,ChatGPT的發佈,相比傳統的深度學習技術,如bert,在智能性、通用性上,openAI取得了巨大的突破,具備了基礎的語言、知識和簡單的推理能力,能夠很好的模擬人類的智能行為,這一突破性的跨越,讓全世界看到了人工智能成為新的一代工業革命趨勢的可能性。
究其原因,這裏面有兩個關鍵點,其一,相比之前不到10億的參數規模進入到GPT3.5時代,參數量突破到了1750億,預訓練數據量更是達到了45TB。而最新的GPT-4更是來到了千億萬億參數量的級別。其中,對於大數據、大模型、大算力的需求,是之前所有人未能預見到的。其二,Transformer模型,擁有強大的自我調教能力,基本上融入了過去人類實現人工智能的三條主要路徑,即輸入經驗知識、實現人類大腦、從數據中學習。大語言模型雖然屬於第三條路徑,但是也借鑑了人腦的層級結構機制,同時具備了第一條的路徑特點。所以,海量參數、巨量模型、黃教主Respect“三條河流正在交匯”。隨之openAI、Claude、谷歌BARD、阿里的通義千問、百度的文心一言等大語言模型規模不斷增長,大模型的競爭更加激烈,模型進化的速度也越來越快。算力成為了一個繞不開的話題。也使得擁有CUDA架構框架、強大GPU性能、豐富的軟硬件生態的英偉達,成為了大語言模型AI的基礎設施。
這讓人們更加迷信,唯有買更多的顯卡,唯有搭建更大體量的算力中心,唯有繼續提升總算力的部署,才能實現更高級別的AI應用,才能與openAI、谷歌並駕齊驅,才能在商業上有所競爭。繼續買買買,繼續相信黃教主,成為目前我們國內企業AI部門自我麻痹的邏輯閉環。核心的技術積累要嚴重依賴一家美國企業的第三方硬件的供應。這樣對嗎?這樣能夠長久嗎?
目前,一台八卡的英偉達GPU示服器,採購成本更是將近30萬美元。即使未來我們能夠通過海外漏洞,海淘到購買到H100顯卡,最終溢價也是相當的嚴重。據説未來英偉達還很可能取消單卡銷售,只能賣成套的AI伺服器。可以預見,即使沒有美國新規的出台,實際上這樣的商業模式也是不能持久的,存在着極大的供應鏈的隱患,並且在進一步規模化部署上也造成了巨大的風險。
可以説,如果我國的企業,特別是部分大廠,在人工智能領域,希望形成真正的戰鬥力,減少外部供應鏈的影響。接下來,如何統籌好模型與硬件的協同進步,發展自主可控的芯片技術,突破英偉達在AI芯片領域的壟斷,建立國產AI生態的良性發展,成為了接下來極為關鍵的一步。
那麼我們來思考一個問題,突破英偉達的關鍵在哪裏呢?我認為啊有三個方向。
首先第一點,我認為是自研芯片的成本優勢。以英偉達GPU伺務器為例,目前採購價格在30萬美元左右。而根據國外機構拆解的分析,加上GPU顯卡、伺服器風扇、機殼、排線,實際上,英偉達示務器的整體的生產製造成本僅在7萬美元上下,毛利率高達70%以上。
高成本servers的價格門檻,也直接影響到了AI技術在小型企業和中小型應用的開發普及,這也一定程度上限制了AI市場規模的擴張。
即使是openAI,如今也面臨了巨大的盈利壓力。所以如何降低服務器的成本壓力,實際上是目前整個行業共同的一個難題。雖然自研芯片AI芯片前期的投入巨大,面臨着極大的技術上挑戰,但是從長期的競爭角度,既然作為AI的基礎設施,降本的空間如此巨大,裏面必然藴含了充足的商業利潤,形成正向研發投入的閉環是可能的。
其次,大廠自己做芯片,還有一個先天的優勢,在設計的初期,就能夠深入的規劃“芯片+模型”的協同的調度能力。不像英偉達GPU,它實際上需要面向各種的AI應用場景,需要兼容不同的軟件棧,不同的訓練模型。而這樣的兼容性往往就會以犧牲每個訓練任務的效率和性能作為代價。而國內各大AI大廠,實際上對於自家模型的優勢,應用場景的長期規劃又有着具體深入理解,自研AI芯片能夠針對自身模型進行全方位的優化,無需考慮更加廣泛兼容性針對性能的影響。
而隨着人工智能未來五年十年的發展,定製化的優勢只會越來越大。
最後,網友們可能會擔心芯片的製造問題。不知道大家最近有沒有關注AMD發佈的MI300X,以及華為的Atlas超級計算集羣。大家有沒有發現一個趨勢,那就是AI芯片單卡算力並不是未來發展的重點。蘇大媽在MI300X發佈會上壓根就不提具體的算力指標,而專注於內存容量、帶寬和互聯,探索未來如何將大模型放在一個足夠大的高性能內存中。而華為最新的Atlas超算集羣,思路很明確。哥壓根就不跟你卷單卡的算力,卷工藝的製程。設計思路與之前的GPU伺務器相比,是截然不同的一個物種,打破了過去依賴GPU/TPU/FPGA的主流的思路,採用了CPU+NPUhybrid的架構。華為Atlas的算力超級集羣的設計理念,就是要使用更多經濟實用的普通CPU處理器,以及更加高效能的NPU來實現萬億級參數模型的運行。
大家都知道,華為是做交換機出身的,其中可以發現此次採用了正式華為的光交換機技術來實現千TB的互聯,這也是Atlas超算集羣能夠取得突破的關鍵。而華為的這個設計思路,單芯片的算力壓根不是重點,關鍵在於規模化上的突破,是設計思路和設計理念上全新的思考角度,這必然會給整個業界帶來極為深遠的影響。
其實華為Atlas超算集羣就是給大家打了個樣。並不是我國AI產業未來唯一發展的方向。其實,未來新的內存介質,新的內存帶寬技術,包括面向未來的互聯技術,這些都是未來AI硬件、AI技術發展值得原創性的研發,值得探索的突破方向。
唯有自研、創新、思考、熱愛,才能真正在人工智能這條大賽道上,取得長期的勝利。