《華爾街日報》:OpenAI研發工具 可生成逼真AI視頻
Ginger Adams Otis
OpenAI首席執行官山姆·阿爾特曼在X平台上邀請用户為Sora提交文字描述。圖片來源:達斯汀·錢伯斯/彭博新聞社OpenAI推出了一項新技術,利用人工智能根據文字描述生成高質量視頻。
該公司發佈的短視頻片段展示了生動逼真的畫面:長毛猛獁象穿越雪原、海浪拍打懸崖海岸線,以及人們閲讀書籍或漫步城市街道等日常場景。
OpenAI將這一新系統命名為Sora。它接收文字指令後,通過AI技術生成細節豐富的視頻。OpenAI與Alphabet旗下谷歌、Meta Platforms等多家公司正競相開發AI視頻新技術。
獲得微軟投資的OpenAI是ChatGPT AI聊天機器人的開發者,該公司表示正與精選的研究人員和學者共享這項文生視頻技術,以研究AI程序可能被濫用的方式。該技術尚未向公眾發佈。
OpenAI此前已發佈基於文字描述生成靜態圖像的Dall-E 2程序。
OpenAI首席執行官山姆·阿爾特曼週四在X平台邀請用户為Sora提交文字描述,隨後分享了用户創作的內容。
“我們想向您展示Sora能做什麼,”他在X上寫道,“不要拘泥於細節或難度!”
一位用户請求生成“一場海洋上的自行車比賽,由不同動物作為運動員騎乘自行車,並以無人機視角拍攝”。阿爾特曼在回覆中發佈了一段Sora生成的視頻,展示了企鵝、海豚等水生生物騎自行車的畫面。
另一段視頻中,一位繫着圍裙的白髮老婦人微笑着邀請觀眾進入她的廚房。這段AI視頻是阿爾特曼在收到請求後由Sora生成的,要求是“由一位祖母網紅在托斯卡納鄉村風格的廚房裏主持的家常意大利糰子烹飪教程,需具有電影級燈光效果”。
該公司表示,該技術仍存在一些缺陷,包括空間處理問題。
公司承認Sora可能被用於製造虛假信息和仇恨內容等。研究人員指出,隨着2024年總統大選臨近,AI生成的深度偽造內容已成為混淆公眾視聽的潛在風險。OpenAI表示正在採取應對措施,包括禁止將其工具用於政治競選活動。
布法羅大學媒體取證實驗室主任呂思偉表示,正如許多公司所言,在AI生成的視頻和圖像上添加水印或許能起到一定作用。但他指出,水印在許多情況下可被移除或篡改。
呂思偉稱,隨着Sora等AI程序的出現,這項技術將使現有的圖像和音頻深度偽造問題更加複雜化。
OpenAI表示,已選定專家團隊對Sora可能被濫用的方式進行測試,並將就如何加強防護措施提供反饋。
該公司聲明:“我們正在開發識別誤導性內容的工具,例如能檢測視頻是否由Sora生成的分類器。”
研究AI與監控技術的卡內基國際事務倫理委員會高級研究員亞瑟·霍蘭德·米歇爾認為,使用圖像分類器在視頻發佈前分析敏感內容(如裸體或暴力)是積極舉措。但他警告,當Sora這類工具落入真正想利用技術迭代作惡的老練行為者手中時,情況會變得棘手。
他指出:“每發佈一款功能更強的新產品,其被濫用的潛在方式就會呈幾何級增長。”
聯繫作者金傑·亞當斯·奧蒂斯請致信[email protected]