AI浪潮下,更須守護數據安全
光明日報記者 楊 舒
人臉識別、語音識別、智能算法推送……當前,人工智能(AI)技術加速融入社會生活,伴隨着智能產業的蓬勃發展,各式各樣的海量數據也在人們的生活中被大量收集、存儲和利用。數據安全和隱私保護問題由此成為人工智能系統在開發和應用中面臨的嚴峻挑戰。
在享受人工智能帶來高效和便利的同時,如何進一步紮緊守護個人隱私和公共數據安全的藩籬?在近日召開的第十一屆吳文俊人工智能科學技術獎頒獎盛典暨2021中國人工智能產業年會上,多位專家學者就此展開了探討。
人工智能數據安全挑戰諸多
在中國工程院院士潘雲鶴看來,數據、算力、算法和知識、運用、理論六個要素彼此依賴,共同構成了我國人工智能2.0發展的新生態。其中,數據的地位不言自明。
然而,在人工智能不斷走入人們的工作和生活場景時,數據的採集、存儲和應用也越來越面臨諸多風險。“概括來説,數據安全問題體現在五個方面:可複製、易泄露、來源廣、危害大、監管難,這是由數據的特性決定的。”中國電子科技集團第三十研究所研究員董貴山説。
在具體危害表現上,一方面,最常見的是對數據保密性的侵害,如在金融領域,通過網絡竊取人工智能系統用户的交易賬單、理財情況來了解其個人資產狀況和基於在線行為的支付意願,從而快速有效地定位金融詐騙的受害者和目標羣體;或是通過各種網絡漏洞,竊取大量用户的指紋、虹膜、面孔、身形等個人隱私信息數據用於犯罪;也有一些手機應用軟件違法違規收集用户個人信息等用於商業目的。
另一方面也有對數據完整性和可用性的侵害,如通過技術手段對大數據進行竄改、造假和干擾,對投入應用的人工智能系統輸入非真實的訓練數據,以獲得與目標背道而馳的結果。“利用所獲取的數據,也可能出現更改、拼接、製作高度逼真的假視頻或音頻,用於視頻、語音詐騙乃至擾亂社會治安穩定等情況,這一問題因此也越來越受到各國的高度關注。”北京師範大學互聯網發展研究院院長助理、網絡法治國際中心執行主任吳沈括説。
實際上,人工智能數據採集、存儲、利用等方面所面臨的威脅,不僅侵害公民的合法權益,更加不利於人工智能相關產業的發展。山東大學信息科學與工程學院教授劉治舉例,如研發智能超聲技術——運用機械手臂進行胸腔和腹腔的超聲波掃描,需要為系統提供大量的人體超聲掃描數據,但若訓練數據中摻雜着許多非正常或不規範的樣本,則最終的技術效果將大受影響,這也成為影響人工智能技術落地的一個關鍵因素。
安全立法監管進入快車道
在資源共享、信息互通的智能時代,紮緊安全的藩籬,法律無疑是紅線。
“挑戰之下,我們看到,中國在人工智能數據治理領域已經形成了多層次、多維度的法律法規框架。”吳沈括介紹,近年來施行的民法典對肖像權、聲音權、隱私權和虛擬財產保護等都給出了明確的規制,而數據安全法、網絡安全法和個人信息保護法的陸續施行,表明了我國在數據安全立法方面已經進入了快車道,而《網絡數據安全管理條例》也於今年被列入到國務院立法工作計劃中。
然而,在專家看來,在法律規制方面,尚有一些亟待明確的問題。如數據的應用價值和倫理判斷,劉治舉例,在智能醫療的應用上常需要許多醫療數據,這些數據在所有權和使用權方面仍有許多不明確之處,亟須進一步進行確權,明確每一類數據的可利用範圍,這樣才能在法治監管下,讓這些大數據最大限度地造福社會。
“相較於以前,對這些數據的應用價值和倫理判斷評估,是不曾出現過的新要求,所以,不再是‘技術歸技術、法律歸法律’,而需要有一個價值綜合評估的過程。”吳沈括説。
而在上海社科院互聯網研究中心主任、研究員惠志斌看來,人工智能是面向未來的技術,需要在確保人類自身安全的情況下,讓技術向前發展。其中既需要以人為本,也需要責任明晰,隱私保護、算法公正的問題不僅需要法律規制,也需要技術支撐,而這一切仍需各方努力,任重道遠。
對此,中國電子科技集團有限公司科技委副主任卿昱介紹,“十四五”我國已啓動了重點研發計劃“網絡空間安全治理”重點專項,圍繞一系列安全挑戰開展基礎性研究。其中,在安全治理方面,針對網絡空間存在的數據壟斷、濫用和泄露等問題,重點突破重要數據的安全保障、個人數據的隱私保護和跨境數據流動的安全等核心技術,或將為上述問題提供重要的解決方案。
法律規制和標準設立亟待完善
“不可否認,人工智能的發展帶來了一系列嶄新的法律問題。”吳沈括建議,從長期來看,需要構建特定化、專門化的法律體系,甚至為人工智能立法。而從當下看,對於已經或可能出現的數據安全問題,一方面,可以通過梳理和分析我國現有的相關立法規範,修正現行規定或增加新的執法指南和司法解釋將其納入;另一方面,則可以通過構想和設計迫切需要的專門規則,從國際治理和國內治理兩個角度,引入新的特別條款加以應對。
同時吳沈括認為,在進行法律規制時,介入產業領域也應恪守技術中立原則,對於安全風險未超過社會的相當性、控制度和容忍度的,不應擴大幹預打壓;立法應具有前瞻性,關注突出的潛在風險,探索適當的早期干預,如違法預備行為的識別與阻斷;在立法、執法以及司法過程中必須注重實現各項法律規範體系性的相互銜接和適用延展性。
而在浙江省網絡空間安全創新研究中心主任陳鐵明看來,形成數據安全的標準也至關重要。“歸根結底,要讓人工智能的數據安全變得有秩序,要標準化,不僅需要給數據進行分類分級,也要有明確的機構對數據進行標準規範化,而隨着技術又往前走,標準也要隨着繼續發展提升。”
董貴山則建議,在人工智能法規制度和數據標準的建設上,對於數據的有效流通、利用方面也要及時跟進。“有良好的數據生態和數據安全生態,才能孕育出強大的人工智能,同行業或者跨行業的數據流通和應用才能支撐更加複雜的人工智能訓練和數據化轉型的要求,由此促進人工智能和數字技術的發展。”
《光明日報》( 2022年07月30日 07版)