生成式AI監管新規徵求意見,專家:應為市場留足發展空間

【文/觀察者網 呂棟】
今年以來,隨着人工智能技術不斷發展,生成式人工智能(AIGC)成為絕對的市場焦點。為促進生成式人工智能技術健康發展和規範應用,國家互聯網信息辦公室近日起草了《生成式人工智能服務管理辦法(徵求意見稿)》(下稱《徵求意見稿》),並向社會公開徵求意見。
從百度的“文心一言”到阿里的“通義千問”再到商湯的“日日新”,國內各大廠相繼發佈生成式人工智能產品。作為一項正快速發展的技術,AIGC可通過算法、模型、規則等方式生成各種類型的文本、圖片、聲音、視頻、代碼等內容,市場應用前景廣泛。
然而,生成式人工智能技術也面臨着一些挑戰,其中包括知識產權、安全、倫理和數據等問題。針對這些挑戰,《徵求意見稿》對人工智能生成內容、主體責任、訓練數據和數據處理等方面都做出了規定,旨在保障生成式人工智能技術的合規性和安全性。
華東政法大學數據法律研究中心主任高富平解讀指出,我國對人工智能的研發一直採取鼓勵發展的態度。此次《徵求意見稿》對人工智能的監管措施,只是針對面向公眾提供的人機交互式的生成式人工智能,而不是針對所有人工智能的。《徵求意見稿》對生成式人工智能產品的開發提供了基本遵循,對此類產品的開發有積極的正向引導作用。
但與此同時也有學者提出,人工智能產業剛剛起步,業界還不清楚究竟會出現哪些問題,又需要設置哪些規則。在這種情況下,過於超前的立法也有可能會阻礙技術的發展和創新。
例如,《徵求意見稿》提到:“提供生成式人工智能服務應當按照《中華人民共和國網絡安全法》規定,要求用户提供真實身份信息。”對此,北京大學法學院教授薛軍表示:“生成式人工智能服務,在特定情況下更類似於搜索服務,本質是一種智能檢索,應當允許用户以遊客的身份使用。比如,必應搜索引擎遷入了ChatGPT問答模型,普通遊客都可以瀏覽使用。這樣,也可以更好保護用户的隱私,方便網民使用。”

AI生成的圖片
在生成內容方面,《徵求意見稿》提到:“利用生成式人工智能生成的內容應當真實準確,採取措施防止生成虛假信息”,確立了內容真實性的要求。但這一規定目前存在頗多爭議。
一些行業人士指出,從實踐的角度來看,生成內容的真實準確性與生成式人工智能的技術原理是互相沖突的,人工智能生成內容並不是從知識庫中搜索並拼湊出結果,生成結果是通過計算機算法得來的,所以對於生成信息的真實準確性,會存在一些不可避免的技術限制。
中國社會科學院大學法學院副教授、互聯網法治研究中心執行主任劉曉春表示,大模型服務提供者有責任積極採取與技術發展水平相適應的風險預防措施,及時響應監管要求,對權利主體提出的合理訴求給出及時的回應。如果按照規定執行,可以明確大模型服務提供者的具體治理義務,在其盡到與技術發展水平相應的義務的情況下,給予一定的免責規則。
在訓練數據方面,《徵求意見稿》對預訓練數據提出了更多的要求,要求能夠保證訓練數據的“真實性、準確性、客觀性、多樣性”。
中國國家創新與發展戰略研究會副會長呂本富認為,“真實”“準確”缺乏明晰的衡量標準,網絡上的新聞、認知存在刷新、反轉等情況,且數據來源於網絡,需要發揮各個網站主體意識,從源頭上保障“真實準確客觀”。綜合來看,對提供者和使用者、傳播者的違法行為進行規制,或許更符合實際情況。
清華大學中國發展規劃研究院執行副院長董煜則指出,數據訓練的規模會決定人工智能生成內容的質量,數據的數量和質量比算法和模型更重要。從歐盟、美國、韓國、日本等國家針對預訓練數據合法性的要求來看,為了支持大模型的發展,他們允許使用各種出版物對生成式人工智能訓練數據進行分析。因此,如果由於真實性、版權等問題無法使用相關訓練數據,將對人工智能技術發展帶來很大的負面影響。
在責任認定方面,《徵求意見稿》第五條提出,“利用生成式人工智能產品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產品生成內容生產者的責任”。
對此,中國人民大學教授、國家發展與戰略研究院研究員劉永謀表示,生成式AI產品提供的服務大多是生成文本、圖像、聲音等信息內容,在使用在不同的場景可能會產生不同的影響。作為內容生產者的提供方,是無法確定使用者的具體用途的。比如説,一段由AI生成的正常的文字,或者一張AI繪製的圖片,平台方是無法得知它是否被用於創作領域,還是用於一些灰黑產業的,其產生的後果其理所應當由內容的使用方負責。
此外,《徵求意見稿》第十五條規定“對於運行中發現、用户舉報的不符合本辦法要求的生成內容,除採取內容過濾等措施外,應在3個月內通過模型優化訓練等方式防止再次生成”。
但在當前環境下,大型語言模型的參數規模在到達一個臨界值後,湧現能力變得越來越強。即使是OpenAI這樣的團隊,也很難解釋這樣的湧現現象。在這種情況下,人工智能基座大模型生成的內容往往是難以精確預測和控制的,這是生成式人工智能方法的固有缺陷之一。
因此,清華大學人工智能研究院視覺智能研究中心主任鄧志東教授提出,“通過模型優化訓練的方式防止再次生成侵權內容,在技術上非常難以實現,而利用價值對齊的算法採取內容過濾等措施或可實現。如果要求生成式人工智能產品服務提供方在收到侵權問題反饋時,第一時間過濾侵權內容,並通過模型優化訓練,實際上是非常困難的,人工智能立法應當在智能湧現能力和安全性中找到平衡”。
法立於上則俗成於下。劉永謀指出,未來新法規的出台,將界定新技術服務的“底線”和“紅線”,使科技得以在合乎倫理的軌道上運行發展。同時也應注意到,新產業、新業態和新模式,雖然意味着新的風險,但也正在為生產力和經濟增長注入新動能。新法規的制定,為市場留足發展空間,才會讓人工智能大範圍的得到普及,讓創新更進一步。
本文系觀察者網獨家稿件,未經授權,不得轉載。