降價潮背後:中國產業大模型落地的卡點到底在哪?_風聞
产业家-产业互联网第一媒体44分钟前

“技術是不會以任何商業行為或者人們的意願所改變它的上限和下限的,它需要的時間是恆定的。 ”
作者|思杭
編輯|皮爺
出品|產業家
如果説中國大模型市場最核心的話題是什麼?降價則必然是其中之一。
從目前的參賽玩家來看,不論是字節豆包,還是阿里、百度、騰訊、科大訊飛,國內的一眾to b大模型廠商都被捲入這股降價潮中,它們或是全量降價,或是小參數模型降價。
“很多雲廠其實本來沒想降,但大家都降了,也沒辦法,只能跟。”一位相關人士告訴產業家。
**具體來看,目前業內降價的主要版本更多的是基於公有云版本的接口成本降低,以及輕量化模型的調用成本調優。而從目前大模型的調用來看,這些也是當下開發者小範圍使用最優先使用的版本。**根據不完全統計,如今有超過40%的企業都在嘗試使用大模型相關產品,或是基於辦公,或是基於生產等等。
但這種意願的蓬勃生長和這次降價潮並不成正相關。“其實降價對我們影響不大,本來我們的調用成本就很低,現在重點是能不能內部使用起來。”一位金融企業的CIO告訴我們。
這是很多人向產業家傳遞的信號。因此,在這背後,對應的一個核心問題是:降價,是不是會推動和加速大模型在產業和行業側的落地?或者説,降價是不是大模型從技術向工程邁步的核心因素?
如果説一年前,市場對於這個問題的回答是肯定的,那麼如今,這個問題則更多見仁見智。在產業家和不同企業的溝通交流中,得出的一致結論是,如今企業更多的卡點並非在大模型本身,而在於企業自己。
這些工程側的卡點涵蓋向量數據庫、數據清理/標註、知識庫的梳理建立以及內部業務邏輯和流程的清理,“我們現在想在copilot基礎上加一層,到Agent的階段,但整體的業務流程梳理需要時間。”上述人士告訴我們。
在降價潮把大模型拉回C位的如今,我們更應該審視的是在大模型進入中國一年後的當下,在技術、參數不再是唯一標準的如今,中國產業大模型的卡點如今到底在哪?
**一、大模型時代,**低價究竟意味着什麼?
“我們不希望發佈半成品。之所以今天發佈,是因為現在我們的模型能力已經準備好了。”火山引擎總裁譚待表示。上週三,火山引擎正式發佈字節旗下的豆包大模型。
而與此同時,更為重磅的消息是,豆包大模型宣佈降價,每千tokens價格0.0008,直接給出了“全網最低價”。
這也意味着,大模型價格戰就此打響。先是阿里宣佈其主力模型全面降價,在豆包大模型的基礎上,再降三個點,每千tokens價格0.0005;當天下午百度宣佈“免費,立即生效”,緊接着,阿里雲再加碼,宣佈通義旗下的12款模型已開源,全部免費下載。等到了週三,參與者又多了科大訊飛和騰訊。
對此,海外媒體給出的評價是,國內互聯網廠商的價格戰,向來都遵循一個公式:“一旦降價,就直接擊穿底價,‘不留活口’。”在過往的SaaS和雲計算階段,也恰都是這種節奏。
原因為何?或者説,大模型成熟到可以以如此低的成本進行大規模商業化了嗎?
在談及大模型價格之前,先來看雲計算的價格戰,在過去的幾年時間裏,包括阿里雲、騰訊雲、華為雲等在雲側的價格也更都處於不斷調低的模式,但就雲計算技術本身而言,伴隨着流批一體、分佈式存儲等技術的優化,服務器CPU的成本在加速降低。客觀來看,這種降價邏輯完全合理。
但這裏面忽略了一個問題,即時間緯度。從時間來看,國內雲計算的發展早在2006年,甚至更早就已經開始了,等到了2014年左右才進入到快速發展期。而直到2016年,國內各大雲廠商才開始靈活調整價格,真正的價格戰,或者説競相放低價格則要更晚。
從這個緯度來看,大模型在國內卻僅發展了不到兩年的時間,中間不論是如今整體算力上的短缺,還是對於GPU納管的存儲計算能力,以及其算法框架的優化, 儘管其是基於雲計算的底層架構進行成本側的優化,但目前都尚未成熟。
據瞭解,以目前國內的主流芯片而言,如果是軟硬一體的交付,其算力利用率能到80%,但如果分別進行軟件和硬件的交付,整體由於異構以及不兼容的問題,其利用率甚至可以低到60%以及更低。此外,就國內的主流芯片而言,其相較於英偉達的H100等性能,同等價格下其性能更是隻有其60%左右。
這些都代表着對大模型而言,真正良性的價格下浮並沒有實現。那麼,從這個節點來看,大模型廠商廠商降價的本質是什麼?
在前段時間,王小川曾聊到這樣一句話,“百川智能不參與價格戰,因為我們主要面向的是c端業務,降價的主要是B端的需求。”
誠然如此,從本質來看,在大模型降價背後,對一眾雲廠商而言,其可以通過更低的價格更快、更好地構建自身的AI開發生態,通過讓自身的大模型產品被更多B端企業使用,進而建立數據飛輪和強化用户粘性。
從當下來看,一旦企業選擇使用一家大模型,一般要經歷搭建知識庫、數據庫、數據清理/標註,以及訓練、微調等環節,這也意味着其替換成本極其高,對模型廠商而言則對應的是極高的用户粘性以及提前卡位。
實際上,從各家面向生態的動作能窺得一二。比如百度面向開發者推出的一眾包括飛槳在內的開發社區,再比如阿里自身的魔搭社區,以及騰訊、華為面向開發者的一眾工具,在降價的動作背後,也更是對自身AI生態的底層加速。
**二、低價,**真的會「催熟」大模型落地?
而在生態和客户粘性之外,更應該思考的一個問題是:低價真的會催熟中國產業大模型的落地嗎?
客觀來看,如果説大模型是一個簡單的C端應用,或者對於企業來講是一個“拿來即用”的程序,那麼降價或免費策略一定會更大程度地催熟市場。但如果站在企業搭建大模型的角度,這個問題則要更復雜得多。
總體來説,企業自身搭建一個大模型,不僅僅需要從大模型企業那裏獲取相關服務,對於企業自身也有更高要求,比如企業內部的數據訓練、知識庫搭建等等。
以一個在金融企業內部的大模型實際案例為例,即銀行需要構建大模型,其第一步是數據收集。首先,各部門需要把風險評估、客户信用評分、欺詐檢測等數據彙總起來,同時在此基礎上,收集各部門對大模型業務的需求。
其次,將這些結構化和非結構化的數據進行具體整理,並確定數據來源。這裏包括數據清洗、轉換數據格式等等。
而這些工作都是企業在業務部門內需要完成的。
在完成了整個數據層面的處理,還需要進行模型層面的訓練。這裏則需要用到大模型廠商提供的服務,比如基於大模型廠商提供的SFT組件,以及對應的prompt模塊進行模型訓練調整。
另外,為了行業模型能夠更精準地匹配業務,大模型廠商還需要配合企業完成知識庫的搭建。
可以看到,大模型落地更等同於一個系統工程。即使大模型企業通過低價或免費策略吸引了大量客户,企業客户在實際應用中仍需要投入大量的資源和時間來整合和優化這些服務。目前從國內的實踐落地來看,儘管已經有一些央國企在帶頭完成各自行業裏的垂直模型搭建,但其中在數據收集以及訓練層面也仍是困難重重。
此外,問題也更在模型側。**“包括我們不知道在不同的場景我們到底該用多大的模型進行訓練,這點我們技術團隊只能根據廠商給出來的幾個模型一個個試,但究竟是多大的能夠做什麼事情,這個事情沒有明確的説明。”**一位相關技術負責人告訴產業家。
從某種程度來説,降價解決的僅僅是大模型工程最前端的入口問題,但對於整個過程中的全部鏈路節點的打通,這中間的各種問題仍然足夠繁瑣,關卡難度也更足夠大。
三、大模型,****「行業壁壘」之戰
“用虧損換收入是不可持續的,所以我們從來不走這條路子。”火山引擎譚待這樣告訴媒體。
站在商業化的角度去思考,既然目前大模型廠商離盈利還較遠,那麼如今字節、阿里、百度、科大訊飛和騰訊都紛紛宣佈降價,甚至免費,在這波操作背後,這些大模型廠商有沒有更深層的意圖?
首先,一個在過去互聯網時代和雲計算時代的邏輯是,大廠推出的系統和應用要想在行業裏站穩腳跟,就必須要有一定的行業know-how積累和服務經驗的沉澱。
同樣地,這套思路也適用於大模型時代。只是與之不同的是,大模型時代是站在互聯網時代和雲計算時代之上的,一方面,過去的問題不會重複出現,比如數據孤島和系統之間打通的問題,在大模型時代基於scaling law的模式,則會有更好的解決方式;
另一方面,過去的互聯網廠商和如今的大模型廠商是同一批參與者,這也意味着,一些包括數據庫、中間件以及數據層面的行業積累可以複用。
實際上,這也是為什麼去年華為盤古大模型一經發布,就打着“不作詩,只做事”的口號,直接選擇行業大模型的原因。此外,包括百度、阿里、騰訊、火山引擎等更是在行業大模型側不斷加碼,比如在5月28日的智能經濟論壇峯會上,百度副總裁沈抖就表示,百度的行業大模型方案是在通用大模型的基礎上,催生出N個行業小模型,基於“大模型+小模型”的方案幫助企業落地。
相較之下,騰訊的混元大模型的行業積累則聚焦在社交、辦公和汽車領域。在不久前剛結束的北京車展前後,騰訊也發佈了汽車行業大模型,這也是基於騰訊的混元大模型之上的,比如在汽車研發、生產、營銷、服務和企業協同辦公等場景,汽車大模型都可以發揮作用。
然而,上述提到的行業案例也只是目前大模型生態裏的冰山一角。
可以感知到的是,目前各家大模型廠商的一致路徑都是,通過與行業企業的合作,基於更精準的數據進而構建出各自的大模型行業壁壘。
寫在最後:
實際上,從降價到大模型大規模實際落地,中間還有很長的一段路要走。這條路是大模型廠商如何做好模型搭建相關的雲服務,企業如何梳理數據、訓練數據、如何基於業務邏輯搭建模型,以及工具和接口是否一致等等問題。
但降價潮本身也並非毫無意義。
從目前的落地情況來看,大模型在B端的落地還遠未到成熟的地步。在大模型廠商之外,SaaS企業也更在進行軟件層面的AI重構,能看到的是,包括用友、金蝶、微盟、銷售易等企業,它們有的選擇與大模型企業合作搭建自己的大模型;有些則選擇以API的方式接入大廠的大模型底座,在上面建自己的AI Agent;再或者,有些則是更進一步,構建“AI+SaaS”原生應用。
這些新的基於軟件層面的嘗試,都將建立在算力足夠普惠的基礎上。“未來整個行業的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的。對於行業來説,現在模型的API調用還是非常非常低的比例,如果推理成本一年降低10倍那就有更多的人可以用上大模型,這是非常利好的消息。”李開復表示。
算力普惠,是大模型落地的充分條件,但從如今的進度條來看,它儘管需要被正視價值,但遠遠不能成為改變整個大模型落地的最強催化劑。
**“技術是不會以任何商業行為或者人們的意願所改變它的上限和下限的,它需要的時間是恆定的。”**上述金融企業的CIO説道。