OpenAI承諾加強AI視頻安全監管 嚴控Sora深度偽造風險
【環球網科技綜合報道】10月21日消息,據外媒CNBC報道,OpenAI與美國演員工會(SAG-AFTRA)等共同發佈聯合聲明,宣佈將建立深度合作機制,重點防範其AI視頻生成工具Sora可能引發的深度偽造(Deepfake)濫用問題。

據悉,Sora作為OpenAI推出的文本到視頻生成模型,憑藉其“1分鐘長視頻生成”“物理規律模擬”“多鏡頭敍事”等能力,自曝光以來便引發全球關注。然而,其強大的內容生成能力也帶來深度偽造風險——不法分子可能利用該技術偽造名人影像、篡改歷史事件或製造虛假新聞,對個人名譽、社會信任甚至國家安全構成威脅。
此次合作中,OpenAI承諾在Sora的後續版本中實施嚴格的“選擇加入”(Opt-In)政策:所有藝術家、表演者及普通用户需明確授權後,其聲音、肖像方可被用於AI生成內容。例如,若用户希望生成布萊恩·克蘭斯頓的虛擬影像,必須通過其本人或授權代表的確認,並明確使用場景與期限。此外,OpenAI將建立快速響應機制,對涉嫌侵權的生成內容進行下架處理,並配合執法部門追溯源頭。
此外,OpenAI宣佈將向合作方開放部分技術細節,鼓勵第三方機構開發深度偽造檢測工具。目前,已有斯坦福大學、MIT等高校參與相關研究,試圖通過算法識別AI生成內容的微小瑕疵。(青山)