內政科技局新研發AI模型有助打擊深偽音頻 | 聯合早報
zaobao
為應對深偽技術給國家社會造成的危害,內政科技局自2022年下半年起成立了一個團隊,深入研究和了解最新的深偽音頻技術,目前已成功開發出能識別數種深偽音頻的人工智能模型,並將繼續提升模型能力,日後可助內政團隊加強打擊深偽的能力。
深偽技術(deepfake)近年來被不法之徒濫用來行騙或散播假消息等,本地不少名人政要的視頻也被深偽來行騙。為對抗這類新形態的犯罪行為,新加坡警察部隊和內政科技局正加緊研究,提升偵查人工智能科技生成的音頻和視頻的能力。
內政科技局情報感知和監控專業研究中心副署長謝俊凱(43歲)接受《聯合早報》專訪時説,深偽技術可以運用在許多對人類有益的事務上。“例如有劇組運用類似的技術重現一名因病失聲演員的聲音,或在教育課程中重現一些歷史人物的聲音和影像,來豐富教學體驗。”
然而,當不法之徒熟悉這項技術後,就開始運用在不同的犯罪活動中,例如散播假消息或用來進行不同類型的詐騙,包括冒充他人行騙等。
香港警方2024年2月就接到首起利用深偽技術進行多人視頻會議的詐騙案。騙子通過多人視頻會議,利用人工智能技術偽造其他與會者的樣貌和聲音,騙走2億港元(約3437萬新元)。
延伸閲讀
[深偽騙案現階段仍“有跡可循” 專家提醒公眾多留意
](https://www.bdggg.com/2024/zaobao/news_2024_03_03_667789)
[深偽詐騙 你會上當嗎?
](https://www.bdggg.com/2024/zaobao/news_2024_02_27_666561)
內政科技局早在2022年初就瞭解到深偽技術可能被用來進行非法勾當,並從那時起設立團隊開始探討這個課題。也從那年下半年開始,謝俊凱的團隊就發展能探測和分辨深偽音頻和深偽視頻的能力。
深偽音頻更難辨別
謝俊凱説,深偽音頻對一般人來説“更加危險”,因為一般人很難分辨音頻的真偽,而隨着科技進步,深偽音頻中可能只會出現非常短暫的干擾。同時,科技的進步意味着不法之徒能用不同程序或軟件生成深偽音頻。“因此,我們的人工智能模型是通過分析音頻,找出一些指定的‘缺陷或生成的痕跡’,從而確認是否是深偽音頻。”
“我們採用最先進的人工智能算法,同時使用開源(open-source)的深偽音頻數據進行培訓。我們還使用自己生成的深偽音頻來訓練我們的人工智能模型(AI Model),從而提升模型的探測能力。”
基於保密理由,謝俊凱無法透露現階段模型能探測多少種類型的深偽音頻,但表示已取得長足的進展。“只是在現階段,我們的模型雖能很好地偵測一些類型的深偽音頻,在偵測其他類型上還有待加強。”
他強調,團隊的研究會持續進行,並會和這個領域的專家學者合作,一同開發更先進的技術,協助團隊更準確地偵測深偽音頻或深偽視頻,從而繼續加強團隊所開發的模型。團隊也正在設計軟件工程,讓人工智能模型能成為正式的軟件,內政團隊人員可多加使用加強執法能力。