朱茵和楊冪被大換臉!這個“黑科技”暗藏一個大“坑”..._風聞
已注销用户-2019-02-28 16:52
朱茵沒想到,有朝一日楊冪的臉會“安”在自己身上;
楊冪沒想到,有朝一日自己的臉會“安”在94版《射鵰英雄傳》中黃蓉的身上。
B站UP主“換臉哥”沒想到,自己上傳的AI換臉楊冪視頻會引發如此巨大的關注,不到一天內,微博相關話題閲讀量衝到2億以上,甚至還有人為楊冪、朱茵演技孰優孰劣等娛樂性十足的話題爭論不休。
不過,如果拋開娛樂表面細細探究,你會發現,這事一點也不娛樂。
文 | 李瑤 瞭望智庫
編輯 | 黃俊峯 瞭望智庫
本文為瞭望智庫原創文章,如需轉載請在文前註明來源瞭望智庫(zhczyj)及作者信息,否則將嚴格追究法律責任。
1
楊冪“穿越”毫無違和感
成為熱搜的這件事,其實也並不複雜。簡單來説就是,一位名叫“換臉哥”的B站UP主,用AI技術把楊冪的臉“安”在了94版《射鵰英雄傳》中朱茵飾演的“黃蓉”臉上,視頻效果還相當流暢自然。
不信你看,這是原版的朱茵截圖:
這是換臉後的“楊冪版”截圖:
有人會説,你這不過是圖片PS。
那麼看看這個,這是朱茵的表情截圖:
標誌性的靈動有神對不對?那再來看看楊冪版動態:

還有這個:

這樣靈動的楊冪,是不是很久沒見了?
更厲害的是,整個換臉後的視頻幾乎看不出破綻,相當流暢。來,欣賞一下:
原本《射鵰英雄傳》就是翻拍了多次的古裝IP,加上角色本身的形象,以及所涉明星藝人的流量熱度,引發巨大關注成了必然的結果。
發酵到如今,事件已經橫跨娛樂、科技兩界,成為不少人茶餘飯後的談資。
2
AI換臉技術幾年間走向成熟
説起來,AI換臉並不是第一次引發關注。
最早在2016年,德國紐倫堡大學的教授Justus Thies帶着自己的團隊,研發了一個能進行面部實時轉換的模型,叫Face2Face,主要是通過一個真實的表演者來驅動視頻中目標人物的表情,然後再輸出。
操作原理上,他們先對目標人物的面部特徵重構並追蹤,當這個人做出某個面部表情,比如張嘴、挑眉等,模型會重新渲染此人的臉部形狀及光影,並對背景進行修改。
拿上面這個圖舉例,圖中右下是現實世界的人,亦即真實的表演者,左上是正常視頻中的目標人物。在正常視頻中,目標人物是沒有表情沒有説話的,但通過Face2Face,右下表演者的聲音、表情、動作可以映射到右上人物臉上,最終輸出結果就是右上的樣子。
這項技術轉化成變臉軟件後,一度獲得了不少手機用户的喜愛,使用者把自己的表情投射到視頻中其他人的臉上,然後做出各種搞笑表情動圖,趣味十足。
但學術界則思考起這項技術的未來。
有人提出質疑稱,技術本身不具善惡,但一旦該技術的潛力被不正當使用,很可能誘導大量違法行為。
很快,這個預測應驗了。
2017年12月,一個名為“Deepfakes”的Reddit用户利用人工智能技術,製作並上傳了一段假視頻,視頻裏,他將《神奇女俠》女主角蓋爾·加朵(Cal Gadot)的臉換到一個成人電影女星身上,引起轟動;
不到一月後,有人將Deepfakes公開的算法加以改造,推出了一款名叫FakeAPP的Windows程序,聲稱技術小白都可以據此製作出假電影。
煽動之下,有網友號稱只花了5個小時,就用這個程序成功複製了Deepfakes給藝人明星換臉的“傑作”。
當時就有專業人士指出,能讓DeepFakes以假亂真的方法,其實就是使用深度學習模型生成式對抗網絡(GAN,Generative Adversarial Network),只需把被偽造者的幾張照片作為輸入源,然後將其按照面部角度、頭部傾斜等疊加在視頻上。
很快,這項技術也傳到了國內。不少網友拿明星藝人制作過換臉視頻,不過大多數視頻或出於素材量不足,或出於製作硬件較差等原因,視頻效果參差不齊。
相比之下,此次楊冪版本的黃蓉,視頻本身的流暢自然,顯然意味着這一技術的進一步成熟,很難不讓人驚歎。
但不少網友也開始質疑,該視頻可能侵犯肖像權。還有人提出,該技術可能會被製作明星虛假不雅視頻。
雖然AI換臉楊冪視頻製作者已經出來回應稱“主要用於技術交流,並無營利行為”,但這並不能讓網友信服。
3
潘多拉魔盒?
人們對技術的不信任,根本上還是源於技術背後的使用者。有句話叫,技術本身沒有價值觀,但利用技術的人有價值觀。
有的人關注技術本身的正向價值。比如,計算機視覺創業公司Pinscreen,其paGAN技術(Photoreal Avatar Generative Adversarial Network,逼真動畫人物生成對抗網絡),就是利用目標人物的普通照片,實時生成高清逼真動畫人臉,並將真實的表演者的動態表情生成目標人物的動態表情,從而用於電影或遊戲製作。
但也有人喜歡“搞事情”。比如,2018年4月,美國製片公司“猴爪(Monkeypaw Productions)”利用日漸成熟的Deepfake技術,製作了一段虛假視頻,視頻中美國前總統奧巴馬對現任總統特朗普進行了嚴厲的批評。令人瞠目結舌的是,奧巴馬的表情動作竟然合成自“猴爪”公司的創始人喬丹·皮爾。
從隱晦的色情到全民的娛樂,再到嚴肅的政治,AI換臉技術應用場景一步步突破人們的想象力。
實際上,早在2017年7月,肯尼迪政治學院貝爾弗科學與國際事務中心就應美國情報高級研究計劃局(IARPA)的要求,對此類技術進行研究分析。
他們發現,目前人工智能技術的“偽造”水平已極其強大,具有極高迷惑性,能夠逼真實時修改視頻中人物的面部表情和嘴唇運動,能為有足夠豐富音視頻資源的個人生成用真實聲音合成的錄音,並能自動生成逼真的音響效果,給無聲視頻配音。
這意味着,許多你能想到的“技術作惡”情況,都有可能慢慢變成現實。
比如,你躲過了電信詐騙,卻難以躲過AI詐騙。犯罪分子可能會利用你的圖片、聲音冒充你,跟你的家人、朋友、同事聊天、交易,甚至直接實施暴力犯罪。
犯罪行為構成後,偽造出來的“現實”與“事實”也會給檢驗分析人員帶來更多幹擾,嚴重侵蝕社會信任度,激發互聯網欺詐犯罪的進一步擴散和升級。
再比如,當前媒體傳播介質種類繁多且發展迅速,新聞內容除了嚴肅事實外,還有特意生產出的“洋葱新聞”,用以適當的娛樂諷刺。但如果利用AI技術惡意展開網絡攻擊、虛構事件,再與社交媒體相結合,那麼所有你看到的新聞,真假度就更難鑑別了。
往嚴重了考慮,在極端情況下,如果黑客控制了官方的新聞機構網站或社交媒體賬户,大肆利用這項技術製造和散播假的文本、視頻和音頻,就可能製造大面積的恐慌。
例如,2013年4月23日,黑客控制了訂閲人數高達200萬的美聯社官方推特賬號,併發布了一篇標題為“白宮兩次爆炸,巴拉克·奧巴馬受傷”的推文,一度引發市場恐慌,股市暴跌,直到被黑客攻擊這一情況被發現才停止。
4
反AI技術的“軍備競賽”
為了規避人工智能“換臉術”潛在的安全風險,歐美國家安全機構已經開始聯合高校進行前瞻研究,研發相應的反制工具和技術。
2018年5月,美國國防部高級研究計劃局DAPRA着手推進一項名為Media Forensics的計劃,並聯合紐約州立大學研究團隊,於當年8月份推出了全球首款“反變臉”的AI刑偵檢測工具,以AI攻AI。
DARPA Media Forensics項目負責人Matthew Turek透露,此款工具能研發成功,主要是由於他們在GAN生成的假臉中發現了一些細微的線索:使用AI技術生成的假臉(一般通稱 DeepFake),極少甚至不會眨眼,因為它們都是使用睜眼的照片進行訓練的,而大多數訓練數據集都不包含閉眼的人臉圖像。
通過有效預測眼睛的狀態,這款反變臉AI刑偵工具的檢測準確率已經可以達到99%。
但這也不過只是階段性的應對成果。達特茅斯大學數字取證專家漢尼·法裏德表示,機器學習系統可以接受更先進的訓練,然後超越當前的反變臉工具。
上述首款反變臉工具的研發者之一——紐約州立大學奧爾巴尼分校教授Siwei Lyu也表示,現有技術並不能讓人高枕無憂。除了將缺乏眨眼作為檢測AI篡改的提示,還需要探索其他深度神經網絡架構,比如觀察動態的眨眼模式——太快或頻繁眨眼這種在生理上不太可能出現的現象,也應該被視為篡改的跡象。
這意味着,現有人工智能刑偵取證工具的誕生,僅僅標誌着人工智能視頻偽造者和數字刑偵人員之間人工智能“軍備競賽”的開始。
而這種軍備競賽,不侷限於變臉與反變臉、偽造與反偽造之間的技術競爭,更存在於人與人、企業與企業、行業與行業、地區與地區、國與國之間的技術防衞上。
縱然這一技術眼下只是作為社交娛樂,模擬度也比較低,但隨着數據量的累積,深度學習能力及其模型的不斷提升與完善,其逼真度和使用範圍將不斷擴大。
無論從何種立場出發,針對AI偽造技術的發展,必須高度警惕這一技術被惡意使用帶來的風險。
你我作為普通民眾,則必須時刻牢記:娛樂千萬條,安全第一條,技術不守善,用者兩行淚。
(本文圖片均來自網絡)