孔君:人工智能,亟需加強國際倫理規範
作者:孔君
當前,新一輪科技革命和產業變革正在蓬勃興起,人工智能已成為新興技術的關鍵詞。在軍事領域,智能化被視為機械化、信息化之後裝備發展的又一趨勢,人臉識別等人工智能技術在地區武裝衝突中也逐漸嶄露頭角。
與此同時,越來越多的人士對人工智能軍事應用產生的道德和倫理風險感到擔憂。如何在倫理層面規範人工智能軍事應用,確保人工智能技術不會偏離“智能向善”原則,已是擺在各國面前的重要前沿課題。
人工智能軍事應用引發的倫理問題由來已久,其核心是如何看待和處理人與機器之間的關係。近年來,搭載自動步槍的機器狗、用於邊境巡邏的機器哨位等自主武器系統逐漸走入公眾視野,一些學者甚至已開始探討元宇宙的軍事應用,但相關法律和倫理規則卻遠未完善。如何防止這種新式武器濫殺平民?自主武器系統在開火前是否需要人類的授權?誰應對使用這種武器產生的後果負責?隨着美西方加快發展無人機、深度偽造、社交機器人等技術,國際社會對人工智能軍事應用倫理風險的擔憂與日俱增。
事實上,儘管現行國際法體系對人工智能技術並無硬性約束,但人工智能技術在軍事等領域的應用並非毫無限制。根據國際人道法,各國在使用新武器前須評估其是否符合國際法,是否遵循必要性、區分性、適度性等原則。搭載人工智能模塊的武器系統同樣須滿足上述要求,但落實起來卻面臨諸多困難。在現有技術水平下,人工智能特有的 “黑箱效應”導致輸出結果常常難以解釋,一旦出現意外,很容易陷入追責困境。
隨着武器智能水平大幅提高,腦機接口、機械外骨骼等人機融合技術不斷出現,人與機器之間的關係正面臨根本性變化。未來機器甚至可能取代人類本身,成為軍事行動的實際決策者和執行者,引發更深層次的倫理危機。有人甚至預言,如不及時對人工智能軍事應用加以約束,科幻電影《終結者》中的殺人機器人恐將成為現實。
為破解人工智能治理難題,中國在行動。隨着中國進入創新型國家行列,國際社會普遍期待中國為人工智能全球治理體系建設貢獻智慧和方案,促進交流合作、經驗共享,推動人工智能技術更好地賦能全球可持續發展。
中國高度重視人工智能治理問題,始終秉持“以人為本、智能向善”理念,發佈了《新一代人工智能治理原則》《新一代人工智能倫理規範》等指導文件。今年初,中國政府發佈《關於加強科技倫理治理的意見》,提出“遵循增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明”五個基本原則,強調將重點加強人工智能等前沿領域的倫理立法研究,及時將重要倫理規範上升為國家法律法規。在國際層面,中國組織專家積極參與世衞組織人工智能倫理指南、聯合國教科文組織《人工智能倫理問題的建議書》 等重要文件的起草工作。在參與聯合國“致命性自主武器系統”政府專家組討論中,中方始終呼籲各方重視倫理治理問題,堅決反對發展完全脱離人類控制的自主武器系統。中國還是首個在聯合國《特定常規武器公約》框架下提出規範人工智能軍事應用主張的安理會常任理事國,得到廣泛積極評價。
人工智能技術代表着人類的未來,但其亦是一把“雙刃劍”,亟須加強國際治理和引導。中國始終主張,只有堅持真正的多邊主義,推進國際關係民主化,才能推動全球治理朝着更加公正合理的方向發展。在人工智能國際治理問題上也是如此,完善人工智能國際倫理規範勢在必行。各方應站在構建人類命運共同體的戰略高度,從和平、發展、公平、正義、民主、自由的全人類共同價值出發,推動達成符合全人類共同利益的人工智能倫理治理方案。歷史終將證明,唯有守住倫理底線,才能有效規避安全風險,確保人工智能技術始終造福於人類。(作者是國際問題觀察員)