視頻生成模型“卷”起來了:快手可靈剛登頂,美國Runway又上新
张睿佳

中美視頻生成大模型的競賽,成為這兩天AI領域的新熱點。
4月1日,美國知名視頻模型公司Runway 發佈新一代人工智能模型Runway Gen-4,用户無需額外微調或接受特定培訓即可進行創作。

據介紹,Gen-4 擅長生成具有逼真動作以及主題、對象和風格一致性的高度動態視頻。
生成一致性,一直是視頻生成模型面臨的最大難點之一。例如,在AI生成的視頻中,同一個角色在不同場景出現時,往往會出現外觀不一致的問題。Gen-4則可以根據單一參考圖像,在不同鏡頭中保持角色形象的一致性,讓用户在不同光照條件、位置和處理方式下生成一致的角色。
當用户要製作具體場景時,只需提供拍攝對象的參考圖像並描述拍攝的構圖,即可獲取涵蓋該場景下不同方位畫面(every angle of any scene)的視頻。

此外,Gen-4 在模擬現實世界物理方面取得了重大進展。生成的視頻可以無縫地與實景、動畫和 VFX 內容相結合,朝着通用生成模型方向邁出了一大步。
目前,Runway 正積極與業界合作。例如,Runway 已與 LIONSGATE 合作探索電影製作。
值得一提的是,在3 月 27 日剛剛更新的Artificial Analysis 視頻生成模型榜單上,快手旗下的可靈1.6pro 以 1000 分成績登頂。而Runway的上一代模型Gen 3 Alpha Turbo排在第6位。

去年12月發佈的可靈1.6大模型,以對物理規律的理解見長,逼真的現實世界效果,讓可靈生成視頻的物理真實感大幅提升。
在一致性方面,可靈1.6同樣表現出色。截至3月28日,在VBench2.0(用於評測視頻生成模型性能的基準平台)中,可靈1.6在視頻生成中,對場景中的各個物體、人物等的保持和完整性維護能力(Instance Preservation)中排名第一。
隨着Runway最新版本的升級,它與可靈1.6的能力對比勢必成為市場關注的焦點。
本文系觀察者網獨家稿件,未經授權,不得轉載。