心智觀察所:獨家對話|奇異摩爾祝俊東:破解AI算力基礎設施瓶頸,互聯大有可為
guancha
【對話/ 觀察者網 心智觀察所】
AI大模型對於超大規模算力集羣的依賴,已然成為當代通識,儘管其中的GPU這一組成要素已被近乎奉上神壇,但算力集羣的表現,依然極大程度上取決於其他軟硬件要素的綜合集成與優化,這一基本特點,正是中國產業界面對外部遏制的破局關鍵。
從大模型算法結構創新,到通信協議等軟件層面打通異構混訓,再到超大規模集羣網絡互聯架構的軟硬件創新,大量原始創新成果正在中國產業界湧現。
日前,心智觀察所與奇異摩爾聯合創始人、產品及解決方案副總裁祝俊東進行了一次深入交流。

這家定位於以互聯為中心,為超大規模AI計算平台提供高性能互聯解決方案的廠商,依託Chiplet和高性能RDMA技術,在這一領域走出了一條新路:
心智觀察所:很高興能有機會和您交流。説起AI大模型訓推,我們知道在硬件上除了加速卡,網絡互聯架構也至關重要,能否請您先談談對目前技術趨勢的觀察?
**奇異摩爾祝俊東:**最近這幾年,AI大模型確實發展很快,我們可以看到整個網絡訓練規模其實在不斷增長。海外大模型訓練集羣規模已經從萬卡級增長到10萬卡乃至20萬卡了,從國內來看,訓練規模其實也比較大了,儘管沒有那麼高的單卡算力,但我們也看到了一個很好的發展趨勢,包括現在湧現出非常火的DeepSeek。所以不管是國內還是國外,其實對於大模型的訓練現在都是在快速發展的一個階段。
在談AI大模型算力集羣前,我們先來看傳統數據中心是怎麼樣的,它的網絡架構相對比較簡單,通用計算網絡的話更多是一個多租户體系,服務上千萬甚至更多的用户,共用一個雲端數據中心。現在AI大模型的特點則是把一個非常大的集羣用來服務於數量有限的大模型訓練任務,這就對於算力硬件之間的互聯提出了非常高的要求。比如傳輸帶寬上,從以往100G/200G,現在在向400G/800G乃至1.6T演進,整個數據交換的規模如果是一個10萬卡集羣,那不管是我們講北向Scale Out(網間互聯)的網絡,還是説南向Scale Up(GPU互聯)的網絡,都要做大量的數據交互,因此AI算力集羣網絡的性能、規模以及它的複雜性都是指數級上升。
從推理的需求來看,也在發生變化。過去單卡單用户或者單卡多用户的方案很流行,但最近一段時間我們看到推理系統的規模也在變得更大,像DeepSeek的雲端推理集羣已經到了幾百卡的規模甚至上千卡。多機之間組成超節點(HBD)的方案正在快速增加,它對於scale up網絡的要求非常高,這就是我們看到特別是在雲端AI互聯架構的一些發展。
心智觀察所:我知道奇異摩爾是一家Chiplet和互聯技術見長的企業,對於當前大模型訓推的技術趨勢,你們有什麼樣的回應?
**奇異摩爾祝俊東:**現在大家更多會講集羣算力,從集羣算力來講的話,我們可以把它分為幾個層面。最微觀的層面當然還是計算芯片本身,從芯片本身來説算力當然是越高越好,但你應該知道隨着摩爾定律放緩,芯片本身的算力密度增長趨勢也在放緩,所以各家大公司類似AMD、Intel不約而同採用Chiplet技術來把芯片做得性能更高、更復雜,在這個層面也就是片內互聯,奇異摩爾會提供比方説Chiplet互聯芯粒2.5D/3D IO Die、Die2Die IP,把芯片內部更多計算單元連接起來。這是第一個層面,通過這種方式讓單芯片算力保持持續增長。
第二個層面就是剛剛説到的超節點,你可以理解成數據中心裏面一個小的機櫃集羣,它通常由幾台不同的服務器來組成一個小規模但是超高帶寬的集羣。這裏面就會涉及到Scale Up的網絡,英偉達這樣的廠商可以自己做,但是對於其他廠商來説,這一塊是一個相對比較大的短板,奇異摩爾可以提供一種GPU片間互聯的Die(又名NDSA-G2G),通過這種方式幫助其他廠商用我們的技術把片內互聯轉成超節點之間的互聯,這是第二個層面。
再往上第三個層面,就是大模型的訓練和推理,特別是訓練層面,你還是要構建更大規模的集羣對吧?這就需要我們所説的智能網卡。AI訓推集羣比方説10萬張卡,中間有大量的跨節點數據交互,它對網絡數據交換性能要求非常高,所以我們另外一個產品就是基於AI原生的智能網卡,可以提供非常高的帶寬,作為國產網卡替代主流國外廠商的高性能網卡。我們通過這三個層面的技術能力,可以為國內算力集羣用户提供端到端互聯架構解決方案,從片內到片間到網間。

心智觀察所:RDMA(遠程直接內存訪問)技術也是當下算力集羣網絡的熱門概念,能否再展開分享一些這方面的信息?
**奇異摩爾祝俊東:**這裏面有幾個方面,首先是性能,比如帶寬、延時以及數據傳輸效率,我們通過高性能RDMA引擎能夠達到800G傳輸速率、幾百納秒的延時,從性能來説是非常好的;第二呢是因為只有點對點的性能是不夠的,因為特別是大規模訓練的時候,其實有非常高的複雜網絡需求,比如容易產生擁塞,而在我們的產品裏引入了新的擁塞監測以及處理算法,能夠極大提高擁塞處理效率;第三個是所謂的多路徑傳輸,因為在複雜網絡環境需要從多條路徑傳輸,我們對於多徑傳輸引入了優化算法,可以自動選擇最適合的路徑進行傳輸,對於常見的亂序問題,我們的產品引入了亂序重排的算法,可以滿足網絡對於亂序恢復的需求。通過這些技術就可以在有損大規模網絡裏有效部署RDMA方案,讓十萬卡甚至以上規模集羣達到95%甚至更高傳輸效率。
心智觀察所:AI的新技術生態要形成內生活力並不容易,您在與AI芯片廠商、系統集成商和終端用户的互動中有哪些經驗和心得?
**奇異摩爾祝俊東:**如果把這個問題的情境放到AI基礎設施範疇來説,我們會發現,過去其實一個項目裏分工是非常明晰的,系統廠商、服務器廠商、計算芯片廠商和網絡芯片廠商,其實大家有非常明晰的標準也好,分工界面也好,大家在自己的角色內根據標準把東西做好,原來是非常簡單清晰的。但是現在,我們發現這個邊界正在模糊化,也就是説算法廠商需要去關心硬件是怎麼做的,那雲廠商或者説集成廠商我需要知道算法是怎麼做,硬件廠商也會希望知道算法是怎麼來運行的,我們需要知道GPU怎麼做的,GPU供應商反過來也一樣,所以這個邊界其實正在打破。
比如DeepSeek在整個算法、集羣建設、底層協議的優化和通信的優化上,他們其實做了很多的工作,這些端到端的優化被證明是非常有效的。這件事情其實在其他的廠商也在發生,奇異摩爾通過產業鏈協同合作的方式和其他廠商共同優化大模型的基礎設施底座。
心智觀察所:新生態您覺得會走出來一條怎樣的演化路徑?
**奇異摩爾祝俊東:**這裏面可能有兩種類型吧,第一種類型就是以英偉達為代表的端到端閉環,垂直一體化,他自己做全部技術棧,那第二種類型就是形成一個開放的生態,其實除了英偉達以外,大家都在做一些開放的標準和協議,出現了越來越多的組織,比如UEC,UAlink,UCIe,國內也有不少開放聯盟在推進。
心智觀察所:能否請您介紹一下與復旦大學合作的3D IC項目“芯齋”?我注意到介紹資料裏説28納米工藝實現了相當於先進製程的性能。
**奇異摩爾祝俊東:**對於這個項目,我們和復旦做的是存算一體計算架構,因為現在其實計算集羣裏算力並不是唯一的瓶頸,甚至不是最大的瓶頸,存儲牆和互聯牆同樣嚴峻。因此通過存算一體來解決數據傳輸的效率問題是一個非常有意義的提升手段。存算一體的最終極目標當然是完全顛覆馮諾依曼架構,不過近期的探索比如芯齋,其實是基於近存計算的範式。它大概的思路是下面的底座集成了所有對外的交互接口以及大容量的片上緩存,然後在上面3D堆疊很多不同種類的計算Die,相當於上面是計算,下面是存儲。因為是通過3D封裝來互聯的,所以帶寬延時以及功耗都是傳統芯片的幾分之一,在同等製程下至少能夠提供5倍以上的性能提升。
心智觀察所:沿着這個思路,您覺得短期內能看到的性能提升上限大概在什麼地方?
**奇異摩爾祝俊東:**應該這麼來説吧,現在的國產製程和海外大體上差兩代左右,我們通過這種方式,差不多可能追接近一代或者一代半,也就是説可能會差半代到一代。如果未來我們能夠實現真正的存內計算的話,那是有可能接近甚至超過現在利用傳統範式做的SoC。
心智觀察所:很振奮的評估,最後一個問題,除了大模型訓練推理之外,您還看到了哪些新興AI應用場景的潛力?
**奇異摩爾祝俊東:**我覺得可能對於我們公司來説,原來互聯技術還是以在雲端數據中心場景應用為主,但看看英偉達最近推出的DGX企業AI平台,其實現在邊緣端的系統裏互聯要求也越來越高、規模越來越大,特別是現在大家都在自己做DeepSeek開源模型的本地部署,這個在企業市場其實有非常大的應用前景,這類系統對於帶寬即時性的需求也都非常高。
從更廣泛的視角來看,不管是個人設備終端,然後包括汽車也好,或者是現在非常火熱的具身智能方向也好,這些系統都帶來了更多的即時聯網數據交互需求,所以在這個層面上來説,未來邊緣設備會具備智能並且它需要跟周邊的物理世界進行即時溝通,這些我覺得會是一個非常大的應用市場。
原來已經在聯網的或者未來更多的聯網數據,將產生實際使用價值。

本文系觀察者網獨家稿件,文章內容純屬作者個人觀點,不代表平台觀點,未經授權,不得轉載,否則將追究法律責任。關注觀察者網微信guanchacn,每日閲讀趣味文章。