陸洪磊、蒙昕晰:完善AI治理,在四個層面發力
作者:陆洪磊 蒙昕晰
人工智能(AI)正在以前所未有的速度滲透進日常生活。它能讓普通人一鍵生成圖像、視頻,把複雜的文本轉化為生動的多模態表達,也能夠在幾秒內克隆名人的聲音,被別有用心之人拿來混淆視聽。近期,全紅嬋、孫穎莎等奧運冠軍的聲音被AI克隆,用於直播帶貨、售賣產品,聲音權、肖像權、名譽權遭到侵犯。筆者認為,AI治理不是一件小事,而是全社會須正面應對的時代命題。
首先,平台責任要落到實處。在現實中,一些互聯網平台一味追逐流量,對AI生成的虛假、低質甚至侵權內容睜一隻眼閉一隻眼,甚至暗中縱容,結果導致類似亂象層出不窮。平台理應是信息傳播的“守門人”,不能成為放任問題的“温牀”。9月1日起將施行的《人工智能生成合成內容標識辦法》(以下稱《標識辦法》),正是針對這種失序現象出台的治理舉措。該辦法明確規定,服務提供者必須對AI生成的文本、音頻、圖片、視頻、虛擬場景等生成合成內容添加顯著標識,並在分發、傳播環節進行核驗。這意味着,平台須主動承擔起審核、管理和把關的職責。
在未來的AI治理中,平台需明晰三點責任:一是建立行之有效的內容審核機制,確保違規AI內容能第一時間被攔截和處置;二是加大對違法違規行為的懲戒力度,不讓違法賬號“換個馬甲”就能繼續牟利;三是加強與政府機構、媒體和科研機構的協同,提升“治理AI”的能力,探索更精細、更高效的識別與防範技術。只有當平台真正擔起責任,AI治理的第一道防線才能牢固。
其次,政府機構監管需靶向升級。AI的進步不會等人,AI的治理同樣必須“跑得更快”。中央網信辦已在全國範圍內部署專項行動,對違規AI應用程序進行清理整治,推動平台提升檢測與鑑偽能力。這種從“技術源頭”到“應用末端”的全鏈條治理,表明監管層正以更精準的方式應對AI帶來的挑戰。
生成式AI謠言的重要特點是生產的低成本和治理的高代價。造謠者不再需要耗費大量時間剪輯視頻,只需輸入幾段文字或音頻樣本,就能製造出高度逼真的虛假內容。相反,識別與闢謠的成本和難度卻大幅上升,形成典型的“造謠易、闢謠難”的剪刀差。相關部門需推出和完善有針對性的政策,不斷強化動態治理能力。
最後,法治護航已刻不容緩。AI治理不能停留在道德呼籲或行業倡議層面,必須依靠法律的剛性約束。我國《民法典》已經將自然人的聲音納入人格權保護範圍,但在AI生成內容快速增長的背景下,還需要更多配套性的法律工具,明確利用AI搞侵權行為的法律責任與追究路徑。
《標識辦法》正是這一法律體系的重要拼圖。它不僅要求服務提供者明確標識義務,還規定互聯網應用分發平台必須在上架審核時核驗相關材料。這意味着,從生產、分發到傳播的每一個環節,都已納入法律規制之下。未來,隨着技術不斷升級,相關法律也應保持動態調整的能力,避免出現“技術跑在前、法律跟不上”的真空地帶。
AI治理需要多管齊下、形成合力。應在法律層面提供明確的規範和邊界,在技術層面推動標準制定與研發支持,在倫理層面倡導負責任使用AI,在行業層面推動平台間協作。唯有法律、技術、倫理、行業多維並舉,才能真正形成既有“高壓線”,又有“安全閥”的治理格局。
放眼全球,AI治理幾乎是所有國家都面臨的共同難題。歐美國家也在探索立法,例如歐盟通過的《人工智能法案》,美國則以行業規範和企業自律為主。與之相比,中國在AI治理上的探索展現出鮮明的制度優勢。我們不僅強調前瞻性的法律制度建設,還注重技術與監管的同步升級。這是中國能夠在新一輪全球科技競爭與治理中佔據主動的重要原因。面向未來,中國不僅要在技術研發上走在前列,更要在創新治理上做出表率,推動形成更加公正、合理的國際AI治理體系。(作者分別是清華大學新聞與傳播學院副教授、博士生導師,清華大學新聞與傳播學院碩士研究生)