藝術畫作、AI變臉……如何統籌AIGC發展與安全?這場論壇現場網絡安全大咖熱議
東方網記者薛寧薇9月11日報道:手機導航語音、模型建構、藝術畫作……隨着ChatGPT的出現,能夠生成文本、圖像、視頻、音頻等多種形式的人工智能生成內容技術(Artificial Intelligence Generated Content,以下稱“AIGC”),越來越多被應用於生活各領域。
與此同時,不法分子也盯上了AIGC的“蛋糕”,相關“AI變臉”“AI擬聲”詐騙案件時有發生。出於對AIGC大模型的風險考慮,馬斯克等互聯網大咖也曾要求暫停人工智能大模型的訓練。
在今天舉行的2023年國家網絡安全宣傳週上海地區高峯論壇活動現場,多位網絡安全的業內大咖就分享對AIGC的發展和安全治理話題發表各自見解。
“大模型暫停訓練半年的呼籲是理想化的,唯有我們進一步地以科技自強,來保護人民羣眾的生命財產安全。”在上海交通大學人工智能研究院院長宋海濤看來,人工智能和AIGC的產生,加速了人們對於信息的有效壓縮能力以及對知識的表達能力,面臨如此重大的科技湧現甚至對網絡的外延,要在進一步擁抱科技力量和技術的同時,加強網絡安全方面倫理和治理體系的研究。“新業態、新技術到任何一次工業革命最終要遵循倫理和社會治理的規則,我們可以在下一階段網絡安全過程中如何探討倫理和治理體系的建設。”宋海濤説。
“3-5年後網絡上的東西可能都是AIGC生成的,它可以文生萬物,比如網上看論文都不知道是不是AIGC寫的,這會牽涉到網絡安全問題、生態安全問題、數據安全問題。”上海市信息安全測評認證中心創新研究院副院長徐卿表示,對於這個問題,國家層面對數據安全制度供給在加大,包括《數安法》《個保法》等。對此,上海也推動了許多以數據安全為中心的思路去構架城市數據安全體系的試點工作。“目前還是一個起步階段,還是有大量工作要去做,方向肯定是正確的。”徐卿説。
作為一名法律工作者,公安部第三研究所網絡安全法律研究中心主任、研究員黃道麗從事網絡安全政策法律研究近二十年,深耕數據安全、個人信息保護、網絡安全漏洞治理、關鍵信息基礎設施保護等領域。她認為,AIGC在應用中的風險是否會突破傳統所認識的數據安全、個人信息保護,這當中存在一個巨大的張力。相關立法時需要讓所有參與人員都能看到一個穩定的預期,對行為有一個準確的判斷。
在中國信息通信研究院華東分院院長廖運發看來,從技術上,要加快人工智能技術進一步地研發。從產業維度上,需要加快可信人工智能的落地,形成共識。從生態維度,要加快標準的研究、制定,以及從監管的維度如何推動底線政策的監管。“總體來看,這些監管都不是抑制AIGC大模型的產業發展,而是要統籌發展與安全。”廖運發認為,要構建一個AIGC大模型的數字安全空間,涵蓋網絡安全以及數據安全、基礎設施安全、應用安全,這對於整個AIGC大模型發展是至關重要的。