人工智能“幹”造假:造假算法豐富,偽造圖像逼真_風聞
谭婧在充电-谭婧在充电官方账号-偏爱人工智能(数据、算法、算力、场景)。-2021-07-09 23:05
人工智能沒有光做好事,新技術也常常搗亂。
“深度偽造”是指利用深度學習算法實現音頻和視頻的模擬和偽造,包括語音模擬、換臉、表情操縱等。
2019年國內紅極一時的換臉軟件“ZAO”就是公眾最為熟知的應用,用户只需上傳一張照片,就能秒變“戲精”,甚至還能與偶像同台飆戲,效果極其逼真。
不久前,短視頻領域出現的“螞蟻呀嘿”熱潮,其基礎也是深度偽造技術。
針對這一威脅與挑戰,7月9日,北京瑞萊智慧科技有限公司發佈了DeepReal深度偽造內容檢測平台(基於第三代人工智能),具備工業級檢測性能,能夠快速、精準地對多種格式與質量的圖像進行真偽鑑別,為遏制和防範深度偽造技術的大規模濫用提供有效技術支撐。隨着人工智能的廣泛應用,整個產業面臨的三大困境逐漸浮現,RealAI致力於解決這些困境。
第一是算法可靠問題。
深度學習算法為黑盒,缺乏可理解的決策邏輯和依據,無法量化不同決策的可靠程度,導致難以應用至金融、醫療等高可靠性要求場景。
同時,基於對抗樣本攻擊技術可以破解安防監控、手機刷臉解鎖、人臉識別閘機等識別系統,實現身份偽裝或隱身逃逸,為個人財產安全與社會公共安全帶來全新挑戰。
第二是數據安全問題。
提升AI能力需要挖掘數據價值,但在特定AI應用場景中,所需要用到的數據往往涉及個人隱私信息,簡單明文數據傳輸和利用很可能導致隱私泄露。
而有價值的數據分散形成數據孤島,在打破數據孤島的過程中,數據用途和用量難以控制,存在被濫用和複製的可能,同時數據權屬不明確,數據收益不清晰。
第三是應用可控問題。
AI算法偏差導致不公平性問題,比如人臉識別算法存在種族歧視與性別歧視,AI信貸模型對特定地域人羣的歧視等,缺乏有效衡量算法公平性的方法和工具;同時,AI技術的濫用引發道德倫理問題,比如深度偽造技術的濫用帶來的個人和社會風險問題。
清華大學人工智能研究院的核心孵化企業北京瑞萊智慧科技有限公司副總裁唐家渝在演講時談道:我們來看兩個深度偽造技術濫用的案例:一女網友請他下載某軟件並提出視頻邀請,他已懷疑對方是騙子,但出於好奇,還是接受了邀請。掛電話後不久,王某就收到了一段有自己頭像的不雅視頻。騙子用AI換臉技術把他的臉合成到他人的視頻上,並以此威脅其轉賬。
更早之前,福克斯旗下的Q13電視台直播中,特朗普做出了一直吐舌頭的動作,之後信號被掐斷。電視台排查是編輯在直播中利用技術手段播放了偽造視頻,最終涉事編輯被解僱。
自2019年以來,國外機構監測到的深度偽造視頻數量呈指數級增長。
從前面兩個簡單的案例可以看出,深度偽造技術藴含着巨大的潛在危害。
比如對於個人來説,合成偽造的色情視頻,危害個人聲譽;對於企業來説,合成偽造的欺詐音視頻,將造成財產損失。2019年初,Facebook的CEO扎克伯格也遭遇被偽造,偽造者發佈了宣揚侵犯個人隱私數據的不實言論,這些事件將Facebook、隨後又將人工智能造假推向了社會輿論的風口浪尖。
其次,深度偽造也將對國家與公共安全威脅,對於國家來説,偽造國家政要的視頻,傳播虛假信息,操縱民眾情緒,危害公共安全。例如,在我國全力迎戰新冠肺炎疫情期間,如果有人利用“深度合成”技術製作出權威專家發表“疫情不可防、不可控”的虛假視頻,就極有可能引發全社會的不穩定。
在信息爆炸時代,民眾對信息的真偽雖然有一定的鑑別能力,但當謠言以視頻的形式出現時,不僅深度契合“眼見為實”的認知共性,更在權威專家“背書”的基礎上大幅增加謠言的可信度,由此導致虛假視頻、音頻的影響範圍越廣、影響深度和危害性越大。當“眼見不為實”成為社會常態時,必然會對長期延續下來的認知體系產生強烈衝擊,激起人們對一切事物的懷疑,直接衝擊社會信任體系。
因此,目前世界各國針對深度偽造的治理都出台了法律法規。

l 《民法典》:禁止利用信息技術手段偽造等方式侵害他人的肖像權和聲音
l 《網絡音視頻信息服務管理規定》:對深度合成內容顯著標識;不得利用基於深度學習、虛擬現實等的新技術新應用製作、發佈、傳播虛假新聞信息
l 《網絡信息內容生態治理規定》:網絡信息內容服務使用者和網絡信息內容生產者、網絡信息內容服務平台不得利用深度學習、虛擬現實等新技術新應用從事法律、行政法規禁止的活動。
l 《2018年惡意偽造禁令法案》對製作深度偽造內容引發犯罪和侵權行為的個人,以及明知內容為深度偽造還繼續分發的社交媒體平台,進行罰款和長達兩年的監禁。如果偽造內容煽動暴力、擾亂政府或選舉,並造成嚴重後果,監禁將長達10年。
l 《深度偽造責任法案》要求任何創建深度偽造視頻媒體文件的人,必須用“不可刪除的數字水印以及文本描述”來説明該媒體文件是篡改或生成的,否則將屬於犯罪行為。
l 《2019年深度偽造報告法案》明確了“數字內容偽造”的定義,規定國土安全部定期發佈深度偽造技術相關報告。
除了美國之外,歐盟、德國、新加坡、英國等國也出台了相關的監管政策。
相關國家也通過設立專項計劃對深度偽造進行治理,我們這裏以美國為例:
2015財年,DARPA啓動了“媒體取證”項目,研發自動評估照片和視頻完整性的算法,探索、識別深度造假中存在視聽不一致的技術,包括像素不一致(數字完整性)、與物理定律不一致(物理完整性),以及與其他信息源不一致(語義完整性)等問題,並向分析師提供有關偽造內容是如何產生的。
“媒體取證”項目2019財年獲得1750萬美元的資助,2020財年獲得530萬美元。該項目在2021財年完成後,將過渡到作戰指揮和情報部門。
2019財年,DARPA啓動了“語義取證”項目,開發算法,檢測、歸因各種深度造假內容。這些算法包括:(1)語義檢測算法,確定該媒體內容是真實的還是由深度造假技術操控。(2)歸因算法,推斷媒體內容是否來自所聲明的來源。(3)特徵算法,試圖發現內容造假背後的意圖。“語義取證”項目2020財年獲得970萬美元的資助,2021財年獲得1760萬美元。
其次還有從技術層面,開展榜單競賽相關治理舉措,比如FaceForensics Benchmark是德國慕尼黑工業大學聯合Google等多家機構共同發佈的大規模人臉偽造數據集,用於促進對人臉偽造檢測的學術研究,並提升工業界對於人臉防偽業務落地的重視程度。2020年,由Facebook牽頭,微軟、亞馬遜、MIT等知名企業與高校共同發起了深度偽造檢測挑戰賽,這是首個國際範圍內針對偽造人臉檢測的挑戰賽,共有2,200多支團隊參加了此項比賽,參賽模型超過35,000個。最終在測試集中檢測,得到的最高準確率為82.56%。
國內也有全球安全極客大賽極棒中,2020年的大賽就曾舉辦了虛假人臉AI識別賽,我們在比賽中戰勝了Facebook比賽中第二名的中科大團隊。
2020年,中國人工智能大賽中也設立了深度偽造檢測比賽,我們也是獲得了絕對領先的成績。
雖然不同國家、不同機構都採取了一些措施致力於解決深度偽造的負面影響,但對於深度偽造的治理任務是相當艱鉅的。比如在TikTok上受到關注度極高的阿湯哥的偽造視頻,肉眼來看已經難以辨別是假的了。
同樣地,我們來看看右邊的這幾個人臉,大家可以猜猜哪些是真的哪些是假的。(停頓)其實,只有斯瓦辛格的這張是真人。因此,在人臉難辨的情況下,對於深度偽造的虛假內容,我們必須依靠計算機進行檢測。
然而,正如大家能夠想象到的,依靠機器檢測的過程其實是個長期對抗的過程。這裏的對抗性主要體現在兩個方面。
第一個方面是造假算法在不斷豐富,偽造圖像越發逼真。這裏我們舉兩個典型的例子。最初的偽造視頻其實是有一些反常識的特徵的,比如一段1分鐘的視頻中,人沒有眨一次眼睛,於是我們可以基於人體的生理特徵去對人物的真假進行判定;但是自然而然地,造假者隨後也通過在視頻中隨機生成眨眼動作,很大程度上逃避了這種檢測方式。第二個例子,深度偽造的視頻人物,為了與背景有比較好的融合,會對邊緣進行簡單的高斯模糊處理,而當檢測算法基於這樣的特徵進行檢測以後,偽造算法也對人臉邊緣做了更精細化的處理。
第二個方面是利用深度學習的缺陷繞過檢測算法。這裏我們以典型的對抗樣本攻擊為例。通過在圖片上添加對抗樣本噪音,可能使得偽造視頻躲避自動檢測。
當然,也正是由於深度偽造治理有着巨大的挑戰,勢必需要有着深厚技術實力和AI對抗經驗的團隊,才能做出真正能落地的解決方案
RealAI基於團隊深厚的AI技術積累以及基於實戰需求對產品不斷迭代,正式推出業界真正可落地的深度偽造檢測平台DeepReal。該平台擁有工業級的檢測性能,以及應對實網環境對抗變化的檢測能力。平台支持對視頻和圖片進行批量檢測,全界面化操作。針對每個圖片或視頻,標註詳細的虛假幀信息,並可查看詳細的分析報告。最右是對於深度偽造視頻的檢測結果示例。
這一平台擁有業界最領先的檢測性能。
在目前所開源的所有學術數據集上,我們的檢測準確率均超過99%,同時,在百萬規模的實網深度偽造測試集上達世界頂尖水平,遠超Facebook此前舉辦的Deepfake檢測挑戰賽所公佈的最好成績。平台對於單張圖像的檢測耗時不到30毫秒,支持橫向擴展與集羣部署,適用於大規模實網落地。
針對互聯網環境中眾多的深度偽造類型,平台也進行了全面的覆蓋。包括針對真實人物的面部替換、表情操縱,以及完全合成的虛假人物等。
同時,實網環境中的偽造視頻不斷變化,需要有強對抗的手段加以遏制。這裏介紹兩個我們一是使結果具有可解釋性,這樣才能真正讓人信服AI的檢測結果是可靠的。
利用貝葉斯深度學習,我們將偽造視頻的先驗知識進行融合,同時能夠輸出更加準確的置信度,以此增加對預測結果確定性的預判;結合精細化的具有可解釋性的數據集的標註和構建,能夠使預測結果的確定性和可解釋性都有很大提升。
二是能夠快速即時應對新型的深度偽造類型。一方面利用了前面提到的貝葉斯深度學習,另一方面也利用了小樣本增量學習的方法,使得在初期見到少量新型偽造數據時,便能迅速學習到偽造特徵。
除了上述有代表性的兩個方面以外,我們對深度偽造的治理進行了全面的技術佈局。
比如實戰環境中有音視頻數據,所以我們會利用多模態分析算法綜合分析;對抗環境中使用對抗學習技術,在部署環境中支持多模型和單模型,同時通過不確定量化和配合溯源技術提升可靠性。
同時,為了進一步提升檢測的可靠性,我們不僅做預測,更佈局了溯源技術,進一步對深度偽造視頻進行具有可解釋性、可靠的綜合治理。
目前,團隊在深偽領域發表頂會論文數十餘篇,包括 ICLR、NeurIPS、MM、ICML等,依託於這些技術積澱和實戰經驗的迭代,團隊在深度偽造治理方面已取得了不少成績。國際安全極客大賽 GeekPwn 2020 首屆 CAAD 虛假人臉 AI 識別大賽,以絕對比分優勢戰勝中科大、螞蟻金服等團隊,獲得冠軍。
榮獲國家工業信息安全發展研究中心2020年人工智能優秀產品和應用解決方案等。
雖然成績頗豐,但我們清醒地認識到針對深度偽造的風險,一定是需要從監管到研究再到落地實戰進行全方位的治理。(完)
親愛的數據,出品
