“國產Sora”大模型引關注,商業化落地仍是必答題
guancha

4月27日,在中關村論壇上,生數科技聯合清華大學正式發佈中國首個長時長、高一致性、高動態性視頻大模型——Vidu。該模型採用團隊原創的Diffusion與Transformer融合的架構U-ViT,支持一鍵生成長達16秒、分辨率高達1080P的高清視頻內容。Vidu不僅能夠模擬真實物理世界,還擁有豐富想象力,具備多鏡頭生成、時空一致性高等特點。
可生成16秒視頻
與Sora一致,Vidu能夠根據提供的文本描述直接生成長達16秒的高質量視頻。除了在時長方面的突破外,Vidu在視頻效果方面實現顯著提升,主要體現在幾個方面:
模擬真實物理世界:能夠生成細節複雜的場景,且符合真實的物理規律,例如合理的光影效果、細膩的人物表情等;
具有豐富想象力:能夠生成真實世界不存在的虛構畫面,創造出具有深度和複雜性的超現實主義內容;

多鏡頭語言:能夠生成複雜的動態鏡頭,不再侷限於簡單的推、拉、移等固定鏡頭,而是能夠圍繞統一主體在一段畫面裏就實現遠景、近景、中景、特寫等不同鏡頭的切換,包括能直接生成長鏡頭、追焦、轉場等效果,給視頻注入鏡頭語言;
時空一致性高:在16秒的時長上保持連貫流暢,隨着鏡頭的移動,人物和場景在時間、空間中能夠保持一致;

理解中國元素:能夠生成特有的中國元素,例如熊貓、龍等;

值得一提的是,短片中的片段都是從頭到尾連續生成,沒有明顯的插幀現象,從這種“一鏡到底”的表現能夠推測出,Vidu採用的是“一步到位”的生成方式,與Sora一樣,文本到視頻的轉換是直接且連續的,在底層算法實現上是基於單一模型完全端到端生成,不涉及中間的插幀和其他多步驟的處理。
補充信息:所謂插幀主要是通過在視頻的每兩幀畫面中增加一幀或多幀來提升視頻的長度或流暢度。這種方法需要對視頻進行逐幀處理,通過插入額外的幀來改善視頻長度和質量,是一個分步驟的過程。但Vidu與Sora則是通過單一步驟直接生成高質量的視頻,無需經過多個步驟的關鍵幀生成和插幀處理。
早於Sora提出U-ViT融合架構
Vidu的快速突破源自於團隊在貝葉斯機器學習和多模態大模型的長期積累和多項原創性成果。其核心技術U-ViT架構由團隊於2022年9月提出,早於Sora採用的DiT架構,是全球首個Diffusion與Transformer融合的架構,完全由團隊自主研發。
2023年3月,團隊開源全球首個基於U-ViT架構的多模態擴散大模UniDiffuser,在全球範圍內率先完成融合架構的大規模可擴展性(Scaling Law)驗證。UniDiffuser是在大規模圖文數據集LAION-5B上訓練出的近10億參數量模型,支持圖文模態間的任意生成和轉換。在架構上,UniDiffuser比同樣DiT架構的Stable Diffusion 3領先了一年。
自今年2月Sora發佈後,團隊基於對U-ViT架構的深入理解以及長期積累的工程與數據經驗,在短短兩個月進一步突破長視頻表示與處理關鍵技術,研發推出Vidu視頻大模型,顯著提升視頻的連貫性與動態性。
從圖文任務的統一到融合視頻能力,作為通用視覺模型,Vidu能夠支持生成更加多樣化、更長時長的視頻內容,同時面向未來,靈活架構也將能夠兼容更廣泛的模態,進一步拓展多模態通用能力的邊界。
但對大模型技術來説,最重要的一步還是商業化落地。近期,國內商湯科技、科大訊飛等大模型公司相繼公佈了最新研發成果,也都在對標國外最先進的大模型。而從業績來看,相對於高額研發投入,他們顯然還沒有進入收穫期。因此在對標Sora的過程中,如何商業化落地也將成為Vidu的必答題。