細思極恐!你的“聲音”也能被深度偽造,媽媽都聽不出差別來的那種!_風聞
心之龙城飞将-2019-09-10 15:06
央視財經
最近有一項新的科技技術,用户只需上傳一張正面照,就可以一鍵操作,把一些影視劇片段中演員的臉換成自己的,甚至還可以通過社交媒體上傳至網絡上。
這種“深度偽造” 不僅可以換臉,還可偽造聲音 。而目前一些科技公司在面對深度偽造的視頻時,也顯得 力不從心 。
這不禁讓人們擔憂,在深受網絡社交媒體追捧的 “超級”新技術 背後,可能有哪些 安全隱患 ?
語音合成“術”可以模擬任何人語音
彭博社記者萬斯使用電腦合成語音給他母親打了個電話,看看他母親能否發現?
彭博社記者 萬斯: 現在為了實驗一下,我的電腦合成音,我要給我親愛的媽媽打個電話,看看她是否能聽出來。
萬斯(合成音) : 嗨,媽媽,你們今天什麼安排?
萬斯的母親: 今天一早家裏沒電了,我們正在房子裏溜達。
萬斯(合 成音) :我剛剛下班,等着接兒子回家。
萬斯的母親: 好的。
萬斯(合成音): 我覺得我可能感染了病毒。
萬斯的母親: 那你感覺不舒服,是嗎?
萬斯: 哈哈。 我剛才是和你搗亂,你剛才在和電腦説話。
萬斯的母親: 我感覺在和你説話 ,真是奇妙。
萬斯: 你覺得嚇人還是覺得不錯。
萬斯的母親: 如果涉及到非常重要的事情,真的挺嚇人的。
合成視頻以假亂真
深度偽造,是一種可以實時偽造面部表情,並將其渲染成2D合成視頻的人工智能技術。“DeepFake”深度偽造,也逐漸成為這一技術的代稱。

李浩是美國南加州大學的助理教授,“針幕動畫”公司的聯合創始人,這家公司推出的軟件可以讓用户在玩虛擬現實遊戲和購物時,即時定製自己的三維虛擬化身。

“針幕動畫”聯合創始人 李浩: 現在我製作了一個你的化身。
美國公共廣播公司記者 奧布萊恩: 一個和藹整潔的奧布萊恩。
但隨着技術的發展,這樣的合成圖像或視頻,真實度越來越強,欺騙性也越來越強 。對此,研發者也不無擔憂。

2018年1月,一個名為FakeApp 的軟件上線,宣稱可以實現“一鍵換臉”。
雖然有的社交新聞站點比如Reddit網站,已明令禁止 在自己的平台傳播換臉視頻和圖片,但仍有超過9萬名用户在Reddit上傳播這類視頻。

計算機科學專家 法裏德: 我擔心這項技術被武器化,還擔心它如何影響我們整個社會。
“深度偽造”技術引發巨大爭議
新技術推廣應用 應做好監管
一些科技公司在面對“深度偽造”的視頻時,也顯得力不從心 。Instagram總裁莫里斯也在接受採訪時表示,目前業界還沒有大規模的數據或標準對這些假視頻進行檢測。

Instagram總裁 莫斯里: 目前,我們還沒有應對深度偽造的政策 ,我們正試着評估,是否願意這麼做。如果要做,又該如何定義深度偽造,我覺得此類事件並不好。

主持人蓋爾⋅金: 你可以把視頻下架。
莫斯里: 實際上,我想的不僅是把它撤下來,我認為問題在於,我們如何以有原則的方式,做到這一點。

如今,諸如指紋支付、人臉識別解鎖、聲音解鎖等,這些生物特徵識別技術已經滲透到我們日常生活當中。然而,當這些都能被“仿造”時,小到個人財產,大到國家安全,面臨的風險和隱患 就越來越多。
技術是把雙刃劍 ,用對了地方會造福人類,用錯了地方,遺禍無窮。當新技術的能力越來越大的時候,每一項“超級”新技術的推廣應用都應當慎之又慎,該有的監管也要跟上。