大模型產業,Maas成“風”?_風聞
陆玖商业评论-真相只能揭露,无法接近。07-03 08:38
在高企的算力、場景、研發壁壘之下,並不是所有企業都適合自研大模型,對於大多數企業而言,需要更經濟的參與方式。

前些時候,“天才黑客”George Hotz在接受Latent Space(一家AI技術播客)採訪時曾透露,OpenAI的GPT-4其實是一個由8個2200億參數組成的混合專家模型,核算下來,即為1.76萬億參數。同時,這些模型還經過了針對不同數據、任務分佈及推理的訓練。
儘管這種説法並沒有得到OpenAI官方回應,但隨着這一討論的持續發酵,另外兩個話題也隨即被推向了輿論的前端。
一個是統治了半導體產業大半個世紀的“摩爾定律”或已走向終結,取而代之的,將是錨定在算力層的“新摩爾定律”;另一個則是暴漲的算力需求,會快速誘發算力焦慮,以及各路玩家對於算力資源的爭奪。
儘管眼下大模型風頭最盛,但眾所周知,大模型對於數據、算力、投入等方面的極高的要求,市場已經逐漸意識到——似乎並不是所有企業都適合自行開發,對於大多數企業而言,或許需要一種“更經濟”方式,參與到新生產力時代。
時代呼喚新的數字基礎設施服務商。從雲入端,數字基礎設施服務商應該如何切入、怎麼部署,或許,我們可以從6月28日火山引擎大模型發佈會上找到一些答案。
讓“火箭”再飛一會兒
關於自研大模型的 “ 機會問題 ” ,金沙江創投的朱嘯虎與正在進行 GPT創業的傅盛恰好有過一輪交鋒。
作為創業者,傅盛認為,大模型催生了很多新的架構在大模型之上的創業機會,但作為投資方的朱嘯虎,則認為大模型摧毀了創業。因為模型、算力和數據,到目前階段已經多數集中於大廠。
這種認知,是朱嘯虎在AIGC領域投資多次之後所得出的結論。而在後續回應中,朱嘯虎的千言萬語則匯成了八個字:場景優先,數據為王。
一位科技領域資深學者也曾表達過同樣的觀點。在他看來,通用大模型是一項高耗能、高投入的“長期事業”,無論是出於能力方面的考慮,還是出於必須性方面的考慮,自研大模型並非適用於所有企業。
對於絕大多數企業(特別是中小企業)而言,想要搭乘大模型的“快車”實現將本增效,最理性的選擇,或是藉助一些外部數字基礎設備服務商的力量,有針對性地解決場景應用問題。
對此,火山引擎總裁譚待則認為,在模型應用端,面對多模型生態和企業1+N應用模式,同樣需要提供更好的產品和方案,解決這裏面計算、安全、成本等通用問題。讓交易成本足夠低,讓替代成本足夠低,這樣才能不斷降低大模型的使用門檻,讓眾多企業可以更加高效的應用大模型技術。

只不過,隨着不同產業、不同企業對大模型需求的暴漲,技術密度、網絡帶寬、存儲需求等等,都呈現出幾何級增長,算力的巨量消耗顯然是一個無法忽視的問題。火山引擎算法負責人吳迪將其劃分為“三級火箭”的體系——
第一級的大模型供應商和研究機構,負責為全行業提供具備競爭力的基座模型和垂直模型;第二級技術積累深厚的公司,在保留自研模型的同時,也會調用其他廠商的模型落地至不同場景;第三級的各行業大模型應用商,則會把大模型能力深入到生活的各個領域。
大模型一旦進入大規模應用階段,用來調試和推理的算力消耗,將會迅速超過了模型預訓練所需的部分。按照吳迪的預測,到2024年秋天之後,以推理為主的大模型算力消耗,將超過預訓練消耗的60%,並且在2025年的某個時刻,超越預訓練算力消耗。
在此基礎上,對於在應用層躍躍欲試的大模型應用企業來説,與其綁定某一家廠商的大模型,同樣的成本如果拿來調用多個精調之後的垂類模型,效果可能會更好。原因無他,性價比是選用模型的核心因素——
不同模型在不同的場景下,效果是各擅勝場。一個經過良好精調的中小規格模型,在特定工作上的表現可能不亞於通用的、巨大的基座模型,而推理成本可以降低到原來的十分之一。
在這種綜合認知下,與其他大模型廠商所走的路徑有所不同,火山引擎的切入方式並非是從頭自研,而是發佈大模型服務平台“火山方舟”,面向企業提供模型精調、評測、推理等全方位的平台服務(MaaS,即Model-as-a-Service)。
從這種結構來看,“火山方舟”正試圖打造一家初具規模的“AI商店”,某種意義上,這或許也是大模型行業發展的某種必然。
選模型,也是一門技術活
對於大部分企業而言,大模型的需求固然已經出現,但在 “ 萬模競發 ” 大背景下,應該如何選擇適配自己真實需求的大模型,同樣也是一道難題。
所謂“難”,主要體現在兩個方面——
其一,與判別式AI相比,生成式AI暫時沒有行業標準可供參考,企業如果按傳統的銷售邏輯一家家尋找和調用,成本顯然難以控制。
其二,企業使用大模型,數據泄露是首要擔心的問題。譚待提到,與此前的深度學習實踐不同,模型提供方和使用方,現在很可能已經出現了分離;特別是,如果到了私有化部署的階段,不僅作為使用方的企業要承擔更高成本,作為模型生產方也會擔心自己的知識資產。

譚待的擔心顯然不是空穴來風,因為在此之前,與大模型相關的企業數據泄露案例就已經有所浮現。
早在今年初,三星公司在“全面擁抱”ChatGPT之後,在20天內就發生了3起機密外泄事件,其中兩次和半導體設備有關,1次和內部會議有關。這讓三星半導體的核心機密,通過ChatGPT泄露。
究其原因,三星員工直接將企業機密信息以提問的方式輸入到ChatGPT中,會導致相關內容進入學習數據庫,從而可能泄漏給更多人。在“數據防火牆”構建尚未完善時,貿然在公司業務中使用大模型的風險,不言而喻。
正因如此,火山方舟已經上線了基於安全沙箱的大模型安全互信計算架構。根據吳迪的介紹,該方案採用了計算隔離、存儲隔離、網絡隔離和流量審計等手段,以確保模型的機密性、完整性和可用性。
此外,對於如何選擇適合企業的大模型,譚待給出了自己一些想法,他認為,企業首先需要明確自己的需求,並基於需求場景,制定可量化的評估指標。
這意味着,模型的能力主要分為邏輯推理、文本生成和風險控制等很多種,各種能力的不同側重導致了成本分佈的不同。企業根據自己的需求,需要對這些能力進行全方位測評,選擇性價比最合適的。
做好提示工程同樣重要。這裏不僅包括任務內容、相關信息和説明,同時還要給到樣本與示例,同時,再通過“step by step”這樣cot的方式,進一步加強模型的性能;
插件與工具鏈的對接,同樣也不可或缺。因為在模型與提示工程完備之後,合適的插件與工具是激活模型生產力不可或缺的棋子。當這些工具在合適的場景下加以利用,能更好滿足企業的相關需求。
大模型商業化的“火山樣本”
無論是數據安全還是模型精調,都是企業在構建、訓練大模型過程中不可或缺的環節。這也是火山方舟所能提供的重要價值之一。
在接受媒體採訪時,譚待更是重申了火山方舟的平台屬性。他認為,基於此前的多模型行業判斷,所以需要平台提供對應的多模型服務能力,讓企業可以更方便使用對應模型。
回到火山方舟,在目前階段,同樣也並不會下場做自研模型,而是側重於為企業提供安全、低成本的服務平台。
在發佈會現場,陸玖商業評論瞭解到,通過火山方舟平台,企業可以用統一的工作流對接多家大模型。
如果簡單翻譯則是,在同一個“選模型”流程下,企業可以同時對多個模型同時進行調試和能力評測,甚至在不同場景下,還可以靈活切換不同的模型,實現最優的模型組合。這也是火山引擎一直強調多模型“高性價比”的意義所在。
值得注意的是,火山方舟上線的可用模型數量在7個左右。這也是火山方舟“精品策略”的體現。如智譜AI旗下的千億基座認知模型ChatGLM,通過與火山方舟的精調能力和綜合解決方案相結合,已經成功解決了千億模型訓練的穩定性、性能優化等挑戰。
在MMLU、C-Eval等中英文權威榜單中表現優異的baichuan-7B同樣也是如此,入駐火山方舟之後,企業用户的大模型接入門檻和使用成本出現了顯著下降,對於更多企業而言,以較低成本獲取專業服務,自此成了現實。
儘管大模型方興未艾,但業內已基本形成了這樣一種共識:大模型真正的價值體現,還是落腳在能與企業的實際需求相結合,並最終在產業層面激活生產力。
無論是“多模型”火山方舟,還是其他科技企業發佈的大模型產品,對於這些數字基礎設施服務上來説,接下來要做的事情還有:AI基礎設施的創新突破,產業鏈的深度構造,行業的持續下沉,以及開發者生態的孕育等等。
大模型時代,數智世界的多面體將會被進一步打開。