網信辦出台生成式人工智能管理辦法,亮綠燈還是踩剎車?_風聞
刘典-复旦大学中国研究院特邀副研究员-04-12 14:03
昨天(4月11日),國家網信辦起草《生成式人工智能服務管理辦法(徵求意見稿)》(下稱《辦法》),並向社會公開徵求意見。辦法的出台意味着什麼,未來生成式人工智能在中國的發展應該如何開展,世界各國又做了怎樣的準備?今天我們來聊一聊。
4月11日,國家網信辦起草《生成式人工智能服務管理辦法(徵求意見稿)》(下稱《辦法》),並向社會公開徵求意見。幾個月以來,生成式人工智能(AIGC)一直是人們關注的焦點,從ChatGPT到文心一言,再到GPT-4和各類生成式人工智能,生成式人工智能的浪潮滾滾向前。
而在國內外近半年來的體驗中,發現了生成式人工智能的許多問題。也是因此,國家主動出手,秉承着發展的主基調,劃定責任主體,制定行業底線,為中國的生成式人工智能健康發展亮起綠燈。

《辦法》首先明確,**國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作。**因此,制訂管理辦法正是為了未來更好地發展該技術,而不是限制該技術。
01
三大問題,一次規定
《辦法》集中瞄準生成式人工智能的三大問題,從明確條件要求、劃定責任主體、形成問題處理機制、清晰法律責任幾個方面為行業劃定底線。而研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,均在《辦法》的適用範圍內。
無論是中國還是外國公司,在底線之上,則大有可為。
一是隱私安全問題。人工智能對大數據極度依賴,往往需要經年累月的有關於用户的深度信息才能塑造一個成熟的人工智能。而有關於數據收集和保存的問題已經引起了有關隱私問題的擔憂。即使是風靡全球的ChatGPT,近日也被爆出存在隱私泄露風險。
據英國廣播公司(BBC)報道,當地時間3月22日,ChatGPT的開發公司OpenAI創始人山姆·阿爾特曼在推特發文稱,該AI的一個故障讓一些用户能夠看到其他用户對話歷史記錄的標題。幾乎是同時,意大利成為全球首個禁用ChatGPT的國家。意大利隱私保護監管機構因隱私安全問題封鎖ChatGPT。

OpenAI創始人山姆·阿爾特曼 資料圖
在生成式人工智能發展的道路上,隱私安全是不可能繞過的問題。對此,《辦法》規定,生成式人工智能提供者需“承擔該產品生成內容生產者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。”
二是技術濫用問題。人工智能本質上是提升人類生產力的工具,但當這種工具和技術被用於損害公共利益和安全時,他們的“尤其好用”會變為“尤其危險”。而如果人工智能技術被用於金融、網絡犯罪,將會給執法機關造成前所未有的破案難度。
截至目前,人工智能生成圖片已經造成了不小的問題。例如Midjourney這類人工智能生成圖片的應用軟件被濫用,引起了混亂。
近日,馬斯克接連在Twitter上評論了多張人工智能合成的他本人的照片,其中有一張照片是馬斯克和通用汽車女掌門人Mary Barra手牽手。馬斯克評論道:“我肯定不會穿這身衣服。”國內,也有人使用人工智能給地鐵上的女乘客“一鍵脱衣”。隨着生成式人工智能的進步,類似的技術濫用問題可能會越來越嚴重。
在與技術濫用問題相關的虛假信息管理和他人權益問題上,《辦法》規定“利用生成式人工智能生成的內容應當真實準確,採取措施防止生成虛假信息。尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產權。禁止非法獲取、披露、利用個人信息和隱私、商業秘密。”
三是知識產權和他人權益問題。生成式人工智能在輸出內容的過程中,其輸出的內容很有可能造成專利侵權、商標侵權、版權侵權、未經許可使用軟件或數據等問題。同時,生成式人工智能所產生的內容是否具有著作權,也是有爭議的問題。
對此,《辦法》也作出了初步規定,包括生成式人工智能的訓練“不含有侵犯知識產權的內容”“數據包含個人信息的,應當徵得個人信息主體同意或者符合法律、行政法規規定的其他情形”等。
同時,生成式人工智能提供者需要建立侵權投訴及保護機制,“及時處置個人關於更正、刪除、屏蔽其個人信息的請求;發現、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權、名譽權、個人隱私、商業秘密,或者不符合本辦法要求時,應當採取措施,停止生成,防止危害持續。”
02
多國為AIGC發展建立護欄
對於中國這樣一個用户主體龐大且極其多樣化、數據質量參差不齊的巨大市場,某一行業的高速發展永遠離不開監管的保駕護航。特別是生成式人工智能這樣一個嶄新卻又充滿挑戰性的領域。實際上,各國對於生成式人工智能的監管都已在路上。
中國方面。《生成式人工智能服務管理辦法(徵求意見稿)》的制定與實施將幫助確保人工智能產品的合理與安全使用。強調提供者承擔生成內容生產者的責任,以及涉及個人信息時承擔個人信息處理者的法定責任,並履行個人信息保護義務,有利於保護用户數據和隱私。
美國方面。得益於ChatGPT的流行,美國企業開始不斷嘗試使用人工智能賦能應用場景。但與此同時,對人工智能的擔憂也在增加。幾乎與《辦法》同時,美國商務部4月11日也就相關問責措施正式公開徵求意見,包括新人工智能模型在發佈前是否應經過認證程序等。美商務部下屬國家電信和信息管理局(NTIA)正在就企業和監管機構如何合作進行調研,以此為基礎,建立人工智能模型可信度、合法性和道德準則相關的審查制度。NTIA的調查將側重於搭建監管人工智能的最佳方法,並在技術發展進程中,為白宮和國會不斷輸出政策建議。這項調查擬邀請公司、民間社會團體、研究人員和公眾羣策羣力。目前拜登政府也已經開始研究是否需要對ChatGPT等人工智能工具實行檢查。

拜登政府正在權衡為ChatGPT等人工智能工具設定規則 圖源:《華爾街日報》
歐盟方面。目前歐盟和美國一樣,還並沒有針對生成式人工智能的立法,但已經有了成型的人工智能立法。歐盟的人工智能立法,即《人工智能法案》(AI Act),將於2024年正式生效。《人工智能法案》的目標是讓公民和消費者感到信任,並維護歐盟的價值基礎。2023年2月8日,歐洲議會人工智能倫理領域顧問Anna Felländer在歐盟委員會官網發表了ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI一文,提出了關於為什麼要對生成式AI進行監管。人工智能監管的根本問題在於:**究竟是人工智能來控制人類,還是人類來控制人工智能。**因此,道德、法律、風險評估都十分重要。
“看到這些工具即使在相對初級階段也能做到的事情,真是令人驚訝,”NTIA局長艾倫·戴維森説,“我們知道,我們需要設置一些護欄,以確保它們被負責任地使用。”
**目前不管是歐盟、美國還是中國,都已經意識到了人工智能領域,尤其是生成式人工智能,既充滿了發展的潛力,也遍佈了危險的荊棘。**因此三個主要經濟體幾乎同一時間對生成式人工智能設置“護欄”,保證發展的安全性。完善的治理,一方面將保障國家安全和公共安全,另一方面,也可以促進新興技術和產業的發展,加強國際競爭力。
03
科學與技術走好AIGC安全發展之路
在人工智能技術的發展、落地和應用場景擴散的趨勢不斷擴大的當下,《辦法》的推出堅定了中國未來走好生成式人工智能發展之路的決心。
要發展,也要安全。《辦法》中明確提到,國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先採用安全可信的軟件、工具、計算和數據資源。可以看出,**生成式人工智能是國家堅定支持的領域,發展是主基調。**對於這個領域的企業和組織來説,前途廣闊、大有可為。
數據安全、隱私安全、道德和法律,則是生成式人工智能治理的基礎。《辦法》提出,“利用生成式人工智能產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》向國家網信部門申報安全評估,並按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、註銷備案手續。”同時,提供者應當明確並公開其服務的適用人羣、場合、用途,採取適當措施防範用户過分依賴或沉迷生成內容。
各國對生成式AI的重視不單單是針對一個未來有前景的新生事物,**更重要的是其背後解放和發展當前其他領域的生產力的潛力。**未來生成式人工智能極有可能成為主流生產力本身。中國出台相關管理辦法正是為了未來發展該技術做準備。
目前《辦法》仍處於徵求意見階段,未來還可能收納各方意見進行調整。《辦法》敲定之後,將有助於行業健康發展,遏制不良行為。這一舉措顯示出中國對生成式人工智能服務發展的關注和支持,希望通過規範管理,保障人工智能技術在安全、合規的環境中發展,同時保護用户的隱私和權益。未來也可將有代表性的人工智能公司納入治理體系,同監管機關合作開發與技術發展和市場競爭相適應的監管框架。