江必新 胡慧穎 | 人工智能安全發展的法治體系構建_風聞
探索与争鸣-《探索与争鸣》杂志官方账号-30分钟前
江必新|第十三屆全國人民代表大會憲法和法律委員會副主任委員,湖南大學教授,博士生導師
胡慧穎|湖南智慧法治研究院助理研究員
本文原載《探索與爭鳴》2024年第12期
非經註明,文中圖片均來自網絡
**當前全球科技創新進入密集活躍期,人工智能這一前沿技術實現了多點突破,引發了鏈式變革。**人工智能作為引領新一輪科技革命與產業變革的戰略性技術,因其無處不在的滲透性、擴散性、帶動性,廣泛賦能經濟社會發展,同時以前所未有的速度驅動數字生態系統的深刻變革,對人類生活方式、全球產業結構、經濟形態、社會進步以及國際政治經濟格局等都產生了重大而深遠的影響。在此背景下,黨的二十屆三中全會審議並通過的《中共中央關於進一步全面深化改革 推進中國式現代化的決定》(以下簡稱《決定》),明確將人工智能列為八大重點支持的未來產業之一,並在經濟高質量發展、高水平對外開放、國家安全等多個關鍵領域的體制機制改革中均賦予其重要地位,這充分彰顯了國家對人工智能領域創新發展的高度重視。值得強調的是,《決定》還創造性提出了“完善生成式人工智能發展和管理機制”以及“建立人工智能安全監管制度”等一系列關鍵性改革舉措。這些舉措不僅是對人工智能發展與安全並重原則的深刻踐行,更是對潛在風險挑戰的積極回應與前瞻佈局。因此,亟待構建一套科學、系統、高效的人工智能法治體系,推動人工智能技術的健康、可持續發展,引領並重塑未來社會形態的智能化轉型,邁向一個更加智能、更加安全、更加美好的中國式現代化新時代。

圖源|央視網
構建人工智能法治體系的必要性
構建人工智能法治體系的必要性主要體現在以下幾個方面。
**第一,加快發展人工智能是促進新質生產力發展的重要引擎。**人工智能技術正引領生產力由傳統的“物之力”“能之力”向“智之力”的智能化進階。“當前,互聯網、大數據、雲計算、人工智能、區塊鏈等新技術深刻演變,產業數字化、智能化、綠色化轉型不斷加速,智能產業、數字經濟蓬勃發展,極大改變全球要素資源配置方式、產業發展模式和人民生活方式。”“誰能把握大數據、人工智能等新經濟發展機遇,誰就把準了時代脈搏。”智業文明時代的到來,推動技術革命性突破、生產要素創新性配置、產業深度轉型升級,帶來新的發展機遇與挑戰。《決定》針對“健全因地制宜發展新質生產力體制機制”,提出加強關鍵共性技術、前沿引領技術、現代工程技術、顛覆性技術創新,完善推動包括人工智能在內的八大戰略性產業發展政策和治理體系,縱深推進人工智能這一戰略性新興產業、未來產業健康有序發展。這是發展新質生產力、贏得發展主動權的時代要求,也是全面貫徹新發展理念、紮實推動經濟高質量發展的現實需要。在以人工智能推進高質量發展的過程中,法治的護航作用不可或缺。
**第二,實現人工智能創新發展與安全監管之間的動態平衡,是實現高質量發展的必然要求。**高質量發展是全面建設社會主義現代化國家的首要任務,而人工智能作為具有廣泛影響力的顛覆性技術,無疑是實現高質量發展的重要引擎。人工智能須被建構主體賦予價值驅動或任務驅動才能實現意識,人工智能系統往往被設計為遵循預設的規則或算法來執行任務,其“智能”表現受限於編程者的知識和預設條件。故而,人工智能所塑造的新“人類世”賦予人類前所未有的福祉與機遇,也伴隨着一系列風險,包括虛擬與現實割裂、技術失控反噬、改變就業結構、衝擊法律與社會倫理、侵犯個人隱私、挑戰國際關係準則等,對政府管理、經濟安全、社會穩定乃至全球治理都將產生深遠而複雜的影響。當前,我國人工智能治理正進入技術創新與安全監管持續並重、動態平衡的關鍵階段,其價值定位在於平衡發展創新與安全有益之間的內在張力。為此,必須把構建人工智能法治體系置於首要位置,堅持發展和安全並重、促進創新和依法治理相結合,汲取“先發展、後治理”的深刻教訓,摒棄以犧牲安全為代價的粗放增長模式,實現“邊發展、邊治理”。同時,應準確把握技術和產業發展趨勢,充分認識和評估每一項顛覆性創新可能存在的漏洞或盲點,及時採取措施加以應對。這將為人工智能的創新發展配備“安全閥”,最大化其正面效應,最小化其潛在風險,確保人工智能安全、可靠、可控、高質量發展。
**第三,加強人工智能治理是智能時代全球國家治理的必然要求。**隨着全球科技競爭的日益激烈,競爭的焦點已跨越單一技術或設備層面,擴展至涵蓋新型智能基礎設施、數字文明構建以及制度生態或法治生態創新等多維度、全方位的綜合較量。在此背景下,人工智能的安全監管已成為各國高度重視的議題。美國和英國均採取靈活且鼓勵創新的監管策略,其中,美國通過制定地方性法規、提倡行業自律等多種手段,構建了人工智能安全標準;英國則選擇充分利用現有法律框架與監管機構進行監管。而歐盟則於 2024 年出台了全球首個統一人工智能監管的法案——《人工智能法案》,對高風險應用實施嚴格監管。我國目前採取相對審慎的“小快靈”立法模式,通過制定“小切口”的倫理規範和政策法規,對人工智能的某些特定風險進行精準規制,同時為人工智能的發展創新留足空間。此外,我國還針對不同領域制定了場景化的監管規則,如互聯網信息服務的深度合成技術監管規定等。在全球層面,我國積極參與並推動全球人工智能治理框架與標準規範的建立,通過簽署《布萊切利宣言》、提出《全球人工智能治理倡議》等舉措,致力於推動在全球範圍內建立具有廣泛共識的人工智能治理框架和標準規範,不斷提升人工智能技術的安全性、可靠性、可控性和公平性。構建人工智能安全發展的法治體系,不僅是回應人工智能技術快速發展的必然要求,更是參與和引領人工智能全球治理的戰略抉擇。

網信辦官網公佈《全球人工智能治理倡議》全文
**第四,構建人工智能法治體系是中國式法治現代化的必要舉措。**人工智能技術的迅猛發展對現有國家治理體系構成嚴峻挑戰。這一挑戰的核心,即技術與法律之間的“科林格里奇困境”(Collingridge’s Dilemma),具體表現為人工智能技術的快速迭代與法律體系相對穩定之間的矛盾。這也直接導致天然滯後的現行法律法規難以迅速適應人工智能技術日新月異的步伐,在應對數字化變革所引發的新型風險時顯得力有不逮。究其原因:其一,當前理論界對人工智能監管問題的研究探討多集中於民法、刑法與知識產權法等傳統法律領域,需進一步加強對技術監管、公平競爭等新興法律議題的探索,以構建更加全面有效的法治體系。其二,我國現有人工智能規範體系還存在時間差、粗板塊、空白區等問題,對於人工智能監管主要依賴規章、政策性文件、行業標準及技術標準等“軟法”引導,其力度和效果尚顯不足。其三,數據安全與隱私保護、算法歧視與偏見、責任歸屬不清、過度依賴與法治侵蝕等經典技術法治問題依然突出。因此,必須構建適應人工智能發展創新的法治框架,整合多學科力量,從理論、立法和實踐等多個層面來加強人工智能相關法律、倫理、社會問題的研究,建立健全保障人工智能健康發展的法律法規、制度體系和倫理道德。這不僅是對實體規則秩序的反思與重構,更是以“未來法學”問題為主旨的有益探索,對於推動中國式法治現代化具有重要意義。
構建人工智能法治體系的基本框架
在當前進一步全面深化改革、加速推進中國式現代化的關鍵時期,針對人工智能領域的立法工作,不能僅侷限於單一的安全風險防控層面,而應秉持更加多元化的視角,致力於構建一個集促進科技創新、防範技術風險等多重目標於一體的綜合性法治框架。因此,構建人工智能安全發展的法治體系,至少應包括以下內容:
**第一,系統完備的人工智能法律規範體系。應堅持包容審慎與設置底線相結合、分類處理與分階段推進相結合等立法策略,建立更加完善的人工智能法律法規、倫理規範和政策體系。**其中,包容原則強調的是對人工智能技術多樣性和快速迭代特性的充分認知,為創新活動預留髮展空間;審慎原則體現為對法律條文嚴謹性和可操作性的高標準要求;設置底線是要求任何有關人工智能的設計、生產和運用都不能危害國家安全、侵犯公共利益和他人權益,都不得危害人的尊嚴和價值;分類處理要求同等情況同等對待,不同情況區別處理,且這種差別對待必須是正當的並説明理由;而分階段推進則是基於技術成熟度和具體應用場景的實踐考量,先逐步推進人工智能領域的基礎性、專項性立法工作,待時機成熟後再開展綜合性的統一立法。
在構建縱向立法體系的過程中,還需特別注意以下幾個方面的問題:一是建立健全保障人工智能創新發展的基礎性法律框架,明確人工智能領域各類主體的權利、義務及責任歸屬等內容,並構建追溯問責機制。二是加快制定和完善與人工智能應用相關的專門法律,重點完善網絡安全、數據安全、知識產權保護、個人信息處理、倫理風險規制、算法訓練等專項領域的規定,加快研究制定自動駕駛、服務機器人等應用基礎較好的細分領域的相關安全管理法規。三是完善科技倫理審查標準,構建包含多層次的倫理道德判斷結構及人機協作的倫理框架。四是尋求多角度、常態化的人工智能監管國際磋商合作,積極參與全球人工智能治理國際規則制定,深入研究人工智能領域的重大國際共性問題,貢獻中國治理方案。此外,應特別注重跨部門、跨領域的立法協調一致性,以確保各項法規之間的銜接和互補,增強法律實施的可操作性與實效性。
**第二,高效協同的人工智能法治實施體系。該體系需確保在執法、司法、守法等各個環節的協調高效運作。**在執法環節上,應加大對人工智能相關法律法規的執行力度,制定人工智能領域的執法程序規範,確保各項規定得到嚴格遵循。在司法環節上,應探索構建適應人工智能發展的司法審判機制,設立專門審判庭或審判團隊,制定專門訴訟規則和程序,以增強司法對人工智能案件的審理與裁判力度,提升司法審判效能;應避免對司法機關尚難準確把握、但市場接受度高且受歡迎的技術業態產品採取過激的強制措施,以最大限度地減少司法活動對新技術發展的潛在負面影響;還需加強司法與立法的協同配合,為人工智能立法提供豐富的實踐經驗和案例支持。此外,還應注重執法、司法隊伍的建設,通過系統培訓教育提升執法人員、司法人員的專業素養與執法、司法能力,確保其能夠勝任日益複雜的人工智能執法、司法工作。在守法環節上,應加大人工智能領域的法治宣傳與教育力度,提高社會各界對人工智能相關法律法規的認知度和遵守度,引導社會各界自覺遵循法律法規,積極履行社會責任與道德義務。

圖源|人民法院新聞傳媒總社 深圳市中級人民法院
**第三,公開透明的人工智能安全監管體系。**該體系可採用設計問責和應用監督並重的雙層監管結構,其涵蓋以下關鍵要素:一是監管對象的全面覆蓋,既要規範設計者、開發者、製造者,也要將平台建設者、傳播者及使用者納入監管範圍。二是監管流程的全鏈條設定,既涵蓋人工智能算法設計、產品開發、成果應用等全生命週期,也要對人工智能運行過程中的數據、算法等核心要素進行智能即時監控。三是監管重點的精準把握,既對核心軟件設施實施嚴格監管,通過制定嚴格的形式規則和實體正義規則,確保人工智能系統的決策過程可追溯、可解釋、可審計、可問責,同時亦高度重視相關硬件設施的安全可控,確保其符合安全標準和隱私保護要求。四是監管機制和手段的創新,綜合運用建立專門人工智能監管機構、推動跨部門跨領域協同監管、推廣“沙盒監管”、健全行業守信激勵與失信懲戒機制等多種監管方式,形成對人工智能應用的監管合力。五是加強國際監管合作,推動形成統一的國際監管標準和機制。
**第四,有力的人工智能法治保障體系。**要統籌各領域資源,打好法治、市場、科技、政策、人才“組合拳”:一是加強黨對人工智能法治保障工作的全面領導,深入貫徹《決定》精神,確保工作方向正確。二是完善促進數字產業化和產業數字化發展的政策體系,強化財政、税收、金融、價格等多方面的政策保障,鼓勵社會資本參與人工智能法治保障體系建設,形成多元化的投入機制。三是運用現代信息技術為人工智能治理體系賦能,構建包括動態的人工智能研發應用評估評價機制、安全監測預警機制、跨領域的人工智能測試平台認證機制在內的人、技、物、管相配套的安全防護體系,確保人工智能安全可控。四是加快培養人工智能高端人才和高素質法治人才專門隊伍,推進人工智能法治的專業建設、學科建設以及人才儲備和梯隊建設,着力培養既懂法律又懂人工智能的複合型人才。五是綜合運用多種策略方式,如媒體宣傳、教育普及、透明度提升、案例分析、法律諮詢、政策參與、倫理討論、在線資源開發、社區參與、跨學科合作等,增強公眾對人工智能應用領域的法治思維與法律認知,推動技術應用的責任感落實,同時強化對潛在風險的預防管控能力。
構建人工智能法治體系的若干智能要素
新一代人工智能依託“大模型 + 大數據 + 大算力”的路徑,正以前所未有的加速度推動人類逼近通用人工智能。在這一進程中,雖然技術取得了諸多突破性進展,但伴隨而來的“長尾風險”持續湧現,“治理 AI 技術”與“AI 技術治理”的雙向治理邏輯愈加凸顯。一方面,“治理 AI 技術”強調從政策、法律、倫理等層面來規範人工智能技術的研發、應用及社會影響,確保技術發展符合公共利益、法律法規和倫理道德要求。另一方面,“AI 技術治理”側重於利用人工智能技術本身來優化治理過程,實現技術發展與治理需求的良性互動,提升治理效能。在人工智能治理的宏觀視域下,受綜合治理與體系治理理念的深刻影響,構建智能要素的法治保障框架尤為重要,其為人工智能等前沿技術在社會各個領域中的廣泛應用與深度融合提供堅實保障。
(一)算法可信
**在人工智能技術演進過程中,傳統的以算法可解釋性和透明度為核心的控制主義治理範式陷入困境。**原因在於,生成式人工智能(Generative AI)及其正邁向的通用人工智能(AGI,Artificial General Intelligence)都是基於“貝葉斯更新”效應的算法模型迭代而湧現,直覺湧現機制和深度神經網絡等複雜模型的不透明性,導致了所謂的“AI 黑箱”問題——即人們無法完全理解人工智能的決策過程以及無法精準預測其輸出內容。針對人工智能技術的快速迭代、高度複雜及難以預測的特性,其治理過程亟須深入洞悉技術機理,精準把握髮展脈絡,全面考量技術創新與治理的均衡和諧,依據相關技術原理建構具有針對性的體制機制。

“2030年AGI(通用人工智能)時代即將到來”,OpenAI前全球商業化負責人Zack Kass説,圖源|澎湃新聞
**有鑑於此,人工智能技術治理的策略需要從追求算法的“完全透明”,轉向構建“模型可信”的框架。**具體而言,應推動 AI 技術標準化,實施明確、精準、敏捷的常態化技術監管,實現人工智能大模型創新與防範算法共謀風險之間的平衡。
**首先,合理設定算法模型。**一是完善體系化治理,圍繞算法、數據、算力三大關鍵要素,貫穿算法計算、機器學習與自動決策的大模型全生命週期,深入開展人工智能技術系統治理研究。二是強化算法信任,構建以透明度、可控性、可預測性為基礎的算法信任體系,融入“數字人本主義”理念,利用算法備案、算法透明及解釋權機制,揭開算法黑箱,消減歧視與偏見。三是優化算力佈局,依法合理調配算力資源,規劃算力基礎設施建設佈局,推動公共算力資源平台的建設與利用,提高算力資源的高效利用和開放共享。
**其次,嚴格設定數據輸入端規則。**一要確保數據採集軟硬件符合國家標準與行業規範;二要加強個人信息保護,明確數據採集的邊界和範圍,採用加密技術、匿名化處理等手段保護個人隱私;三要建立數據合規審查機制,及時處理並糾正“問題數據”,確保數據客觀、全面、合法合規。
**再次,硬性控制結果輸出端。**一是實施分級分類治理,根據應用場景、服務類型的特點以及風險程度等因素,實施差異化監管措施,確保監管的針對性和有效性;二是針對用户制定相應的規制措施和標準,引導用户在使用人工智能技術時遵守法律、倫理和社會規範;三是優化人工智能技術與用户的互動環境,通過改善界面設計、增加用户反饋機制等方式提升用户體驗。同時,關注特殊用户羣體需求,確保技術能夠惠及更廣泛的人羣。
(二)數據安全
《人工智能安全標準化白皮書(2023版)》中提到,人工智能系統及其相關數據的網絡安全屬性體現為機密性、完整性、可用性以及系統應對惡意攻擊的能力。特別是在邁向通用人工智能的背景下,數據作為人工智能技術研發、訓練與廣泛應用的關鍵資源,其質量與安全成為人工智能實踐應用在技術原理層面的穩固保障。然而,隨着大模型訓練對數據需求量的激增和數據處理複雜度的提升,數據安全風險也顯著攀升。如何在充分利用海量數據的同時保護公共利益,始終是人工智能治理的重要議題。這一重要議題可歸納為保障數據供給和維護數據合法性兩方面。

《人工智能安全標準化白皮書(2023版)》
在保障數據供給層面上,首要任務在於確保數據的高質量與多樣性,訓練數據要滿足準確性、完整性、時效性和代表性,以提升模型的魯棒性和適應性。其次,促進數據共享與整合,應構建高效的數據流通生態,通過完善數據交易機制、推動公共數據開放政策實施、構建數據資源共享與統籌整合平台等,打破領域與機構壁壘,形成更全面的數據集,以確保高質量數據要素的可獲得性、可用性和可靠性。針對數據跨境流動問題,應建立國際數據治理合作共享機制,促進全球數據資源的優化配置,同時加強跨境數據流動的法律監管,確保數據跨境流動的安全與合法。再次,數據安全與隱私保護至關重要。應實施數據分級分類保護策略,明確數據安全保障責任,強化數據泄露風險監控,構建嚴格的加密脱敏與訪問控制體系,限制對敏感數據的訪問。最後,優化內容治理機制,通過構建溯源、黑名單、用户反饋等機制,實現對惡意內容的即時監測、嚴格審核與有效過濾,確保機器認知框架免受不良內容侵蝕。
**在維護數據合法性層面上,構建多元監管機制,提升數據安全治理監管能力。**具體而言,一是通過設立獨立的監督機構或引入第三方審計機構,對數據處理活動實施定期與不定期的審查與評估,及時發現並糾正違規行為。同時,加強跨部門協同監管與線上線下一體化監管,形成監管合力,確保數據處理的合法性與規範性。二是強化用户數據主體權利保障,包括知情權、選擇權、更正權、刪除權等。對於個人信息處理行為,應貫徹最小化收集、知情同意等原則,確保信息主體的合法權益得到充分保障。在特定情境下,若數據處理僅用於純粹算法訓練且未實質性影響個人權益,可視為非個人信息處理行為,但需設定嚴格的限制條件,如“明確告知”與“算法訓練純技術性”等。三是實施數據全生命週期監管。採用先進技術手段如數據脱敏、敏感信息風險評估、泄漏檢測、使用監控及數據庫保密檢查等,對數據輸入、運算、儲存、輸出等各個環節實施全方位、全鏈條的合規審查與監控。四是強化數據合規意識與國際合作,引導企業和個人自覺完善數據合規工作,營造全社會尊重數據權益、遵守數據規則的良好氛圍。同時,積極參與全球數字領域標準、規則的制定工作,推動構建公平、合理、高效的國際數據治理體系,通過加強國際合作與交流,共同應對數據治理中的挑戰與問題。
(三)AI 倫理
**技術倫理在防止技術濫用、保障公共利益方面發揮着重要作用。**在“智能爆炸”的美好泡影之下,人工智能等前沿科技所藴含的風險遠不止技術濫用、隱私侵犯及算法偏見等顯性倫理與法律挑戰。更深層次上,新技術將對社會系統產生結構性衝擊,引發一系列深層次倫理風險,包括但不限於科學認知有限性下的未知風險、生命權利受損的不可逆後果、研發目標與人本權益衝突的價值兩難、物理與數字世界界限日益模糊導致的“真相”消失、技術責任難以界定與問責的監管困境,以及國際科技霸權主義觸發的國際政治倫理風險等。
**在我國,科技倫理治理的核心策略在於促進創新與防範風險並重,客觀評估並審慎對待科技倫理風險。**因此,要實現科技倫理對人工智能的更好規制,首要任務是全面提升對前沿科技倫理風險的系統認知,深化對人工智能的系統性倫理分析,力求全面洞察、前瞻預判並理性澄清其核心倫理爭議,同時探討倫理價值層面的應對策略。其二,推動法律、倫理、技術的深度融合,構建人工智能倫理治理框架,完善倫理審查與監管體系,針對重大人工智能技術項目實施嚴格的倫理評估與審查。其三,遵循比例原則,在有效監管與避免過度干預之間尋求平衡,確保監管措施既精準又適度,以防抑制企業創新與市場競爭的活力。其四,共同構建前沿科技倫理軟着陸機制,推進科技倫理研究、傳播和教育,引導企業與開發者主動進行倫理治理;加強與科技和產業部門的協同治理,如通過“人機價值對齊工程”等實踐探索解決技術原理層面的價值衝突;全面提升社會公眾的科技倫理素養,共同營造負責任的AI發展環境。
鑑於技術的通用化、未來創新週期與方向的不確定性,人工智能所引發的風險呈現出系統性社會風險的顯著特徵,甚至有技術專家警示未來的智能模型可能具有摧毀人類文明存續的力量。**因此,構建面向未來的人工智能法治框架,需要處理好智能要素與法治保障的關係。**一方面,人工智能法治框架的構建,需要對已有數字立法進行回顧與整理,從人工智能的角度將現行智能要素立法的有益經驗加以歸納運用;另一方面,對於目前尚未達成共識的問題要敢於“留白”,等待未來智能要素立法的補充和完善,譬如數據財產權等問題。
人工智能法治體系:從技術邏輯出發、迴歸人類需求
回顧法律歷史的演進,科學技術的發展進步不僅推動了傳統法律體系的理念、方式、要素的創新,而且會對深層次的基礎認知邏輯、研究範式、具體規則架構乃至新的制度建構產生重要影響。人工智能驅動的數字法治生態革新,其內涵遠不止於數字技術、數字經濟或數字社會,更將深層次地引領法治形態的重塑與法學研究範式的開創性轉變。
人工智能安全發展的法治體系構建,無疑是一項複雜而系統的工程。這一進程歷經早期的頂層設計,具體實施的倫理規範、政策支持、技術標準和法律規制,以及後續的監管指引、基準測試、可信認證、風險評估等多種治理範式,逐步形成了相對完善的 AI 治理系統。一些原本遊離於傳統法學研究邊緣的議題,如科技倫理、數據安全、算法安全等,已逐步成為智能要素法治保障框架的核心內容。同時,智能時代下的“數字法學”這一新興的交叉學科,也在經歷着從研究模式相對不成熟向研究範式體系化、科學化的轉變過程。

《數字法學原理》,人民法院出版社,2023年
**未來已來,當下必須將人工智能治理納入國家治理體系現代化的大局中。**構建人工智能法治體系應始終堅定“從技術邏輯出發、迴歸人類需求”的理念,以技術創新與安全可信為目標,全面更新治理理念、治理內容和治理策略,通過面向未來的制度治理與過程治理,最終實現“AI 善治”,讓人工智能技術更好地服務於人類福祉。此外,還應堅持法學理論創新與法治實踐發展相結合,一方面強化人工智能法學理論研究與跨學科融合,以“智慧法治”和法治中國建設為主題,展開跨學科、多專業、大視野的深入研討,重點推進計量法學、實證法學、數字法學、行政自動化法學等新興法學交融發展,聚焦數字化帶來的物理世界相關基礎制度建構、社會規則重塑、倫理認知對齊,破解人工智能創新發展中的治理難題;另一方面,持續關注並探索人工智能技術對法律制度和社會實踐的實際需求,通過制度創新、技術創新和管理創新,推動法治體系向更加智能化、精細化、高效化的方向發展,以促進國家治理體系現代化,並推進人工智能的現代化進程。