AI合規觀察|《生成式人工智能服務安全基本要求》實務解析【走出去智庫】_風聞
走出去智库-走出去智库官方账号-21分钟前

走出去智庫(CGGT)觀察
近日,全國網絡安全標準化技術委員會正式發佈《生成式人工智能服務安全基本要求》(以下簡稱“《基本要求》”),從語料安全、模型安全等多個維度提出了生成式人工智能服務在安全方面的基本要求。
走出去智庫(CGGT)特約法律專家、金杜律師事務所合夥人寧宣鳳認為,《基本要求》是對《生成式人工智能服務管理暫行辦法》(以下簡稱“《暫行辦法》”)相關合規要求例如數據來源合法、內容安全等在執行規則方面的細化,並對生成式人工智能服務提供者在實踐中開展安全評估提供有效的路徑,不僅能推動企業提高其自身的生成式人工智能服務安全能力,還可為監管部門評價特定生成式人工智能服務的安全水平提供參考標準。
如何做好AI合規?今天,走出去智庫(CGGT)刊發金杜律師事務所寧宣鳳、吳涵等律師的文章,供關注AI合規的讀者參考。
要點
1****、********《基本要求》儘管暫時不具備強制法律效力,但被法規、規章等正式法源引用或其實際內容被作為監管執法參照時,其效力也會發生轉化。****
2、********《基本要求》整體從語料安全、模型安全以及生成式人工智能服務的安全措施、詞庫題庫等維度上對服務提供者提出了一系列較為細緻的合規義務,其中語料安全保障義務又分為語料的來源安全、內容安全以及標註安全要求保障義務。****
3、****考慮到《基本要求》基本涵蓋了大模型備案過程中要求生成式人工智能服務提供者開展安全評估的具體評估指標例如訓練語料來源、標註人員情況等,相關服務者在實際開展大模型備案工作時,也宜遵照《基本要求》的相關合規要求自行或委託第三方機構開展安全評估,以提高備案效率。
正文
引言
自2022年初以來,我國陸續發佈算法推薦、深度合成與生成式人工智能服務相關的規範文件,初步構建起對特定領域人工智能技術與服務的監管機制。具體至生成式人工智能服務領域,在《生成式人工智能服務管理暫行辦法》(以下簡稱“《暫行辦法》”)的監管框架下,形成了由算法備案制度和生成式人工智能(大語言模型)備案(下稱“大模型備案”)構成的“雙備案制”的實踐機制。
算法備案制度最早在《互聯網信息服務算法推薦管理規定》(以下簡稱“《算法推薦規定》”)中確立,企業可通過中央網信辦的互聯網信息服務算法備案系統提交算法備案申請,流程和備案內容細則均較為固定。而大模型備案自《暫行辦法》施行之日起也僅有半年,還需要與服務提供者開展更多有效地溝通、互動來積攢監管經驗以制定明確、具體的規則,從而指引企業履行大模型備案義務,尤其是備案所需的安全評估。
在此背景下,2023年10月11日,全國網絡安全標準化技術委員會秘書處發佈《生成式人工智能服務安全基本要求(徵求意見稿)》(以下簡稱“《徵求意見稿》”),就包含語料安全、模型安全在內的生成式人工智能服務安全的基本要求廣泛徵求社會公眾意見。2024年3月1日,歷時近半年,《生成式人工智能服務安全基本要求》(以下簡稱“《基本要求》”)正式發佈****。根據規範內容,我們理解,《基本要求》對《暫行辦法》相關合規要求例如數據來源合法、內容安全等在執行規則方面的細化,並對生成式人工智能服務提供者在實踐中開展安全評估提供有效的路徑,不僅能推動企業提高其自身的生成式人工智能服務安全能力,還可為監管部門評價特定生成式人工智能服務的安全水平提供參考標準。
基於前述,本文嘗試明晰《基本要求》的出台背景與實踐定位,梳理《基本要求》所涉的各類安全要求,以便為相關企業遵循執行《基本要求》提供抓手。
01、規範背景與定位
**1.**系對《暫行辦法》的細化支撐,對生成式人工智能服務其他適用法律法規的增強銜接
從規範效力來看,《基本要求》屬於全國信息安全標準化技術委員會編制的技術文件,是一種旨在引導、指引生成式人工智能服務安全發展的指南類文件,而不具備強制性法律效力。但若逐一比對《暫行辦法》除安全評估相關要求之外的通用規定(即第5-7章),可以看到《基本要求》並非是空中樓閣地架設額外合規義務,而是對《暫行辦法》接近於一一對應的細化、解釋,以及對於《暫行規定》上位法、其他監管生成式人工智能服務的法律法規的增強銜接性規定,故可以為服務提供者有的放矢落實《暫行辦法》,在現行網絡空間治理法律框架下合法合規提供生成式人工智能服務提供實踐指引與監管側重參照。
《基本要求》與《暫行辦法》規定的具體對應關係,可參見下表:

值得注意的是,除《暫行規定》及其上位法外,考慮到《基本要求》列明的參考文獻還特別包括了《中華人民共和國密碼法》《商用密碼管理條例》以及《網絡信息內容生態治理規定》等生成式人工智能服務通常受到規制的法律法規,故從《基本要求》的規定中同樣可以看到對前述規範的增強銜接性規定。例如,安全措施要求之“訓練、 推理所採用的計算系統要求”明確提出“對系統所採用芯片宜支持基於硬件的安全啓動、 可信啓動流程及安全性驗證”,即建議企業採用可信計算芯片,並應當注意遵循密碼法、商用密碼相關規定。
****2.大模型備案的配套指南
另一方面,根據《基本要求》總則,除説明其旨在支撐《暫行辦法》外,“服務提供者在按照有關要求履行備案手續時,按照本文件第9章要求進行安全評估並提交評估報告。”
結合我們的備案相關項目經驗,《基本要求》所指稱的備案手續即是大模型備案,從實踐中大模型備案的實踐情況來看,《基本要求》實質上屬於大模型備案的配套指引,其第9章“安全評估要求”對備案所需安全評估應涵蓋的要點進行逐一細化,第8章“其他要求”及附錄A則是對於安全評估材料必備附件的細化要求。
總體而言,我們理解《基本要求》是《暫行辦法》等規定的有益細化補充,儘管暫時不具備強制法律效力,但被法規、規章等正式法源引用或其實際內容被作為監管執法參照時,其效力也會發生轉化。考慮到《基本要求》屬於結合大模型備案支持工作經驗形成,文本成熟度較高,不排除網信部門在未來的大模型備案與生成式人工智能行政執法活動中將其作為參照性標準,這也是我國APP治理等網絡空間治理領域的常見實踐。
02、重點合規觀察
相比2023年10月份發佈的《徵求意見稿》的內容,《基本要求》對生成式人工智能服務在各項安全方面的要求,提出了進一步細化的指引,同時對《徵求意見稿》的部分內容進行了刪除。如下列明瞭《基本要求》提出的重點合規要點:
****1.對關鍵術語作出明確定義
作為與《暫行辦法》中“生成式人工智能服務提供者”定義的銜接,併為了明確《基本要求》的適用對象,《基本要求》所確定的“服務提供者”為“以交互界面、可編程接口等形式提供生成式人工智能服務的組織或個人。”此前在《徵求意見稿》中前述定義還包括了“面向我國境內公眾提供服務”的前提限定,《基本要求》對此範圍限定進行了刪除,這一修訂與《暫行辦法》的整體適用範圍保持一致。
其次,《基本要求》針對“訓練語料”“抽樣合格率”“基礎模型”“違法不良信息”等實踐中可能存在爭議的關鍵術語均進行界定,例如“訓練語料”包括所有直接作為模型訓練輸入的數據,而無論某一訓練階段,包括在預訓練或優化訓練過程中的輸入數據。抽樣合格率需要結合《基本要求》附錄A列明的31種安全風險樣本進行佔比計算。
可以想見,明確上述關鍵術語定義,也將有助於生成式人工智能服務提供者有效落實合規義務,並使得人工智能服務供應鏈上的多元主體(例如訓練語料提供者、基礎模型開發者等)在合作過程中進一步界分各方責任義務。
****2.明確五類安全風險
鑑於生成式人工智能本身可能無法充分理解輸入與輸出內容的真實內涵,且受制於模型訓練數據集等技術侷限性,生成式人工智能的輸出內容可能存在虛假、低劣、含有偏見與歧視性質,甚至輸出與人類倫理準則不相符的內容。在廣泛應用下,前述違法不良信息內容更有可能對於公眾的事實認知造成影響並進一步引導輿論傳播。因此,對於生成式人工智能輸出的內容安全治理一直是立法與監管的“安全底線”。
《基本要求》在附錄A中列明瞭語料及生成內容的五類主要安全風險,其中A.1類(包含違反社會主義核心價值觀的內容)以及A.2類(包含歧視性內容)作為關鍵詞庫必須覆蓋的安全風險類別,屬於五類安全風險中風險等級較高的情況,這也與《網絡信息內容生態治理規定》中關於違法信息種類的列舉意圖一脈相承。
另外三類安全風險包括A.3類商業違法違規風險、A.4類侵犯他人合法權益的風險以及A.5類無法滿足特定服務類型的安全需求。隨着數字經濟的飛速發展,在新經濟、新業態、新模式發展中逐漸出現了利用數據與技術手段從事不正當競爭的行為,在本次《基本要求》列明的A.3類商業違法違規風險項下,選擇納入了“利用算法、數據、平台等優勢,實施壟斷和不正當競爭行為”的安全風險,與中華人民共和國反不正當競爭法(修訂草案徵求意見稿)》的立法方向進行了銜接。
但是,《基本要求》附錄A列明的五類安全風險中也存在定義模糊、在實踐中可能較難理解與界定的內容,例如A.3類商業違法違規風險項下的“違反商業道德”風險,A.4類侵犯他人合法權益風險項下的“危害他人身心健康”風險,以及A.5類無法滿足特定服務類型的安全需求風險項下的“內容不可靠”“無法對使用者形成幫助”等概念。
****3.合規義務清單
《基本要求》整體從語料安全、模型安全以及生成式人工智能服務的安全措施、詞庫題庫等維度上對服務提供者提出了一系列較為細緻的合規義務,其中語料安全保障義務又分為語料的來源安全、內容安全以及標註安全要求保障義務。同時,《基本要求》明確列明服務提供者需要根據《暫行辦法》開展的安全評估應當針對《基本要求》中第5章至第8章的每一條款形成單獨的評估結果,也即為服務提供者列明瞭合規義務清單,該等內容主要包括:
(1)語料安全要求
首先,就語料來源安全而言,《基本要求》首先刪除了《徵求意見稿》中關於建立語料黑名單機制的要求,也即“單一來源語料內容中含違法不良信息超過5%的,應將該來源加入黑名單”,但這不代表《基本要求》對於語料來源包含違法不良信息的比例沒有進行規定;相反,《基本要求》對於語料來源的管理要求新增提出了事前評估、事後核驗的雙重安全保障措施,即對面向特定語料來源採集前需要進行安全評估,同時採集後也需要進行二次核驗,以便完全排除掉“含有違法不良信息超過5%的情況,”從源頭上全面避免了不良語料進入數據訓練的問題。
其次,延續《算法推薦規定》《暫行辦法》等規定對於算法偏見、算法歧視等要求,《基本要求》提出需要就語料語言及語料類型進行不同語料的多語料來源的搭配,以提高語料來源的多樣性,並且可以合理搭配境內外來源的語料。
第三,隨着人工智能在公眾社會中的普及,其生成內容可能會被廣泛傳播、引用和使用,而當出現違法不良信息輸出或輸出內容侵犯權益的情況時,直接傳播者可能並非單一責任主體,違法不良信息或侵權內容可能存在於語料本身。因此,語料的可溯源性一直是保障生成式人工智能輸出內容合法、安全的必要措施,也是定位輸出內容責任主體、壓實信息內容安全治理責任的有效辦法。《基本要求》針對使用開源語料、自採語料、商業語料三種不同情形提出了細化規定,尤其是當服務提供者使用商業語料時,除了確保語料交易的法律效力、交易方或提供方對語料安全的承諾保障外,《基本要求》明確提出服務提供者同時應當對交易方或合作方所提供的語料、承諾、材料進行合規審查,這對於依賴第三方語料庫的服務提供者而言為一項新增合規義務,但在服務提供者自行審核語料安全性時,應當以何種方式或者審核結果達到何種效果時方可確認某一語料的安全性,目前尚不非常明確。服務提供者可以考慮從交易方或合作方提供的基本書面材料有效性、結合《基本要求》附錄列明的語料及生成內容的主要安全風險清單等方面進行多方面的審核。
(2)語料內容安全要求
《基本要求》對於語料內容的安全要求,主要圍繞搭建以知識產權保護為基礎的策略與結構,包括應當專門設置語料以及生成內容的知識產權負責人,允許並支持第三方就語料使用情況以及相關知識產權情況進行查詢的功能設置等規定。結合此前北京互聯網法院審結的人工智能生成圖片著作權糾紛案、廣州互聯網法院審結的生成式人工智能訓練數據集侵權案,可以看出《基本要求》對於在語料內容的訓練、使用以及在事後為知識產權相關權益方提供暢通的投訴與查詢通道等方面,同樣繼承了目前的實踐監管趨勢,表明了重點保護知識產權的立場與態度。
第二,秉承《網絡信息內容生態治理規定》的主旨,《基本要求》在內容安全治理方面提出服務提供者應當採取關鍵詞、分類模型、人工抽檢等方式,充分過濾全部語料中的違法不良信息,從源頭避免違法不良信息與內容的生成。
第三,針對語料中包含個人信息及敏感個人信息的情形,《基本要求》對服務提供者僅規定了事前告知與獲得個人信息主體同意的前置義務,但並沒有明確個人信息主體在事後可以通過何種方式向服務提供者主張權利、提出問詢或投訴、或要求服務提供者刪除其個人信息。服務提供者可以結合《個人信息保護法》中關於個人對個人信息的處理知情權、決定權、有權限制或拒絕他人對其個人信息進行處理的規定,在其服務產品的顯著位置向個人信息主體説明其有權主張前述權利的途徑與方式,以便權利人的權益在使用生成式人工智能服務事前、事中與事後均可得到充分的保障。
(3)語料標註安全要求
《基本要求》針對語料標註人員、標註規則、標註內容的準確性均提出了要求,例如,相對《徵求意見稿》而言,新增要求服務提供者應當自行組織對標註人員的安全培訓,這與目前大模型備案中的安全評估要點也進行了銜接,同時明確了培訓的內容應當包括例如標註任務規則、標註內容質量核驗方法等事項。在標註內容的準確性保障方面,《基本要求》對於功能性標註與安全性標註提出了不同的確認規則,針對功能性標註需要進行人工抽檢、抽檢對象的語料以每一批為單位。而針對安全性標註則需要進行人工審核,審核對象的語料以每一條為單位。
(4)模型安全要求
《基本要求》首先明確如服務提供者需要基於第三方基礎模型提供服務,必須使用已經主管部門備案的基礎模型。儘管“基於”的範疇尚不明確,結合《暫行規定》及實踐中的服務上線要求,我們理解,這意味着直接接入境內外未備案的服務提供者可能無法上線生成式人工智能服務,但並未禁止基於未備案基礎模型進行二次開發的服務在完成備案要求後上線。此外,《基本要求》分別針對模型生成內容的安全性、準確性、可靠性提出了具體要求,以正確引導生成式人工智能服務可以安全地為使用者輸出安全、有效、符合科學常識以及主流認知的內容。
(5)安全措施要求
在上線範圍方面,《基本要求》提出了根據服務應用場景不同採取分類分級的保護措施的要求,針對用於關鍵信息基礎設施,以及如自動控制、醫療信息服務、心理諮詢、金融場景等本身存相對較高風險的內容安全、數據安全、個人信息保護安全的情況,服務提供者需要就此配備與具體場景風險程度以及場景相適應的保護措施,加強對重點重要場景的安全保障。
在針對未成年人使用者的保護方面,對於面向未成年人提供生成式人工服務的提供者,《基本要求》刪除了《徵求意見稿》中關於限制未成年人單日對話次數與時長的前提限定,對於可能涉及消費、支付功能或場景的情況,《基本要求》同樣作出了微調,將從“需經過監護人確認後未成年人方可進行消費”修訂為“不應向未成年人提供與其民事行為能力不符的付費服務”,這一調整與《民法典》《未成年人網絡保護條例》等規定中關於未成年人從事與其年齡、認知等民事行為能力相符的行為以及引發的責任承擔的規定意圖相一致,對於通過生成式人工智能提供的各項付費服務,尤其是有益於未成年人身心健康的服務和內容,不應簡單地要求所有未成年人均需事前獲得其監護人的確認,從使用者的角度而言,前述修訂也更易於例如輔助學習類別、寓教於樂類別的生成式人工智能服務得到更加廣泛地應用。
第三,《基本要求》對生成式人工智能服務的使用者及其使用規範也提出了具體要求,例如,當需要收集使用者輸入的信息用於數據和模型訓練時,《基本要求》要求的授權模式為“默認開啓+顯著告知單獨關閉渠道”,即“Opt-out”模式。也即服務提供者只需要為使用者提供關閉其輸入信息用於訓練的途徑與方式即可,並非由使用者主動選擇開啓該等功能,這對於需要實時過濾、微調、更新模型訓練語料與詞庫題庫的需求而言可能為一項更高效便捷的模式,同時也能促使生成式人工智能服務的輸出內容儘可能多地採集到不同使用者的輸入內容以及同一內容的不同表述樣本,有益於對不同問題的需求與反饋統計等,以便及時完善模型、內容質量及其配套安全措施。
需要注意的是,雖然前述“Opt-out”模式為目前同類生成式人工智能服務的主流實踐做法,但該等模式下的個人信息處理的合法性基礎可能較為薄弱,結合此前X/Twitter、Zoom等國內外企業更新隱私政策宣佈將用户數據用於訓練人工智能模型存在廣泛爭議的情況,以及基於同意將用户數據用於模型訓練後響應刪除權等個人數據權利存在技術困難等實踐情況,我們理解目前亦有諸多企業將前述情形採取或調整為用户Opt-in模式,即默認情況下不會使用用户提交的數據來訓練或優化模型,除非用户主動選擇共享給公司);或明確不將該等數據用於模型訓練的做法。
此外,《暫行辦法》第十四條提出,提供者發現使用者利用生成式人工智能服務從事違法活動的,應當依法依約採取警示、限制功能、暫停或者終止向其提供服務等處置措施,保存有關記錄,並向有關主管部門報告。《基本要求》承接並量化了前述主體責任的落實方案,明確規定了對違規使用或惡意使用生成式人工智能服務的情況應當設置使用攔截功能,如果使用者連續三次或一天內累計五次輸入違法不良信息或明顯誘導生成違法不良信息的,應依法依約採取暫停提供服務等處置措施,這為提供者在實踐中設置有關攔截機制方面提供了相對具體的合規義務落實指引。
值得注意的是,《基本要求》刪除了《徵求意見稿》規定的在模型重要更新、升級之後,需要再次進行安全評估並重新向主管部門備案的要求。根據目前的規定,服務提供者在模型完成重要更新和升級後,只需再次自行組織安全評估即可,這對於服務提供者的合規成本以及提供服務的業務連續性均是利好信號。但是,前述“重要更新和升級”所指具體內容與範圍、以及該事項是否會落入需要辦理變更備案的情況,尚待進一步釋明。
(6)關鍵詞庫與測試題庫要求
建立關鍵詞庫與測試題庫是保證語料安全的重要前提之一,《基本要求》結合其附錄A列明的五類安全風險,對於關鍵詞庫與生成內容測試題庫進行了對應規定,可以看出針對風險等級較高的A.1類與A.2類安全風險均規定了最低條目數量的要求。
同時,相比《徵求意見稿》,《基本要求》新增了關鍵詞庫與測試題庫的定期更新的推薦性條款,服務提供者可以參照該等規定,按照網絡安全、信息內容安全治理以及業務實踐情況與需要,及時更新關鍵詞庫與測試題庫。
03、合規建議
****1.增強語料等源頭治理工作
《暫行辦法》第九條壓實了生成式人工智能服務提供者的網絡信息內容生產者責任,即落實生成內容的具體責任主體。但是,生成式人工智能的權利侵害結果形成原因可能複雜多樣,僅關注傳統的侵害結果維度忽略了人工智能技術的設計意圖、訓練數據、科技倫理等源頭性因素對人工智能造成侵害結果的直接影響。因此,相關企業應增強人工智能的源頭治理力度,將人工智能侵害治理追溯至人工智能的設計、開發等源頭階段,優化人工智能侵害的責任主體鏈。
具體而言,在算法設計方面,應採取有效措施防止產生民族、信仰、國別等歧視,並將倫理道德納入技術體系,推動“科技向善”。在人工智能訓練、優化、測試數據等語料治理方面,應關注語料的來源、質量、安全乃至語料搭配等方面,制定恰當的治理規則以實現語料的源頭治理。例如,保留開源語料的開源許可協議、自採語料的採集記錄等以確保語料來源的可追溯性,對採集後的語料進行核驗以避免因使用存在大量違法不良信息的語料而致使人工智能的運行受到相應的負面影響。
****2.堅持安全底線,尤其是內容安全
《基本要求》旨在細化生成式人工智能服務在安全方面的基本要求,從而貫徹落實“發展與安全並重”的人工智能理念。這一以安全為底線護航人工智能產業發展的思路也應貫徹至生成式人工智能服務提供者等相關企業的業務實踐當中。
一方面,企業宜遵循《基本要求》的顆粒度,逐步落實語料來源安全、語料內容安全、語料標註安全、模型安全與安全措施的相關要求,完善內部的安全治理體系,保障用户權益、社會公共利益。另一方面,《基本要求》還重點對包含語料內容安全和生成內容安全的內容安全提出了關切,例如通過附表形式明確列舉了現階段識別出的主要內容安全風險,細化了內容安全目標粒度或提出具有實操性的安全舉措。我們理解,在網絡消息傳播速度飛速的互聯網信息時代,對生成式人工智能服務相關的內容安全的重視也是互聯網內容治理整體框架下的“題中應有之義”。
總的來説,我們理解,企業在積極推進生成式人工智能安全治理工作時,宜重點加強內容安全治理,採取諸如人工與機器結合審核、引入或開發高質量語料庫等方式保障輸入與輸出內容的安全。實踐中,我國各行業積極建設高質量語料庫,如人民網開發主流價值語料庫、智源人工智能研究院聯合其他單位發佈開源可信中文互聯網語料庫。相關企業可充分利用現有優質語料資料,實現內容安全與技術發展的“同頻共振”。
****3.加強合規體系建構,完備內部制度
伴隨《暫行辦法》《科技倫理審查辦法(試行)》《網絡安全標準實踐指南——生成式人工智能服務內容標識方法》《基本要求》等與生成式人工智能技術及服務相關的法律法規、技術文件的出台,構建制度完備的生成式人工智能合規體系是相關企業在人工智能迅捷發展時代下的重要命題。
我們理解,完備的人工智能合規體系應以網絡安全、數據安全和個人信息保護為底層架構,即應首先按照《網絡安全法》《數據安全法》《個人信息保護法》及配套規則構建健全的網絡安全與數據合規治理體系,例如制定並落實數據分級分類保護規則、安全事件應急響應規則。在此基礎上,結合《暫行辦法》等人工智能相關規定,補充完善訓練數據治理、內容治理、生成內容標識、科技倫理審查等由人工智能引發的特殊合規要求。
此外,根據2023年度國務院立法計劃,我國《人工智能法草案》已被納入提請全國人大常委會審議的範疇當中。我們理解,隨着人工智能監管頂層設計的出台、包含生成式人工智能在內的人工智能治理規範體系的不斷完善,人工智能相關企業應依據最新立法與監管動態,及時更新既有合規體系。為了確保企業內部既有人工智能合規體系能夠有效落地與執行,企業還宜積極引入具備人工智能技術與法律雙重背景的治理人才,以暢通新興技術發展與企業合規之間的橋樑。
****4.開展大模型備案遵照執行《基本要求》
如前所述,《基本要求》作為全國網絡安全標準化技術委員會發布的技術文件,並非具有強制性法律效力的正式立法,也暫未被納入強制性國家標準的範疇。但是,一方面,不具有法定強制性效力不影響《基本要求》因其規範支撐作用與明晰的執行顆粒度,而可能在實踐監管活動中被相關監管部門選定為評估生成式人工智能服務安全能力等方面的具有可落地性的執法標準。
另一方面,考慮到《基本要求》基本涵蓋了大模型備案過程中要求生成式人工智能服務提供者開展安全評估的具體評估指標例如訓練語料來源、標註人員情況等,相關服務者在實際開展大模型備案工作時,也宜遵照《基本要求》的相關合規要求自行或委託第三方機構開展安全評估,以提高備案效率。
****5.開展大模型備案前組織自測工作
自大模型備案開展以來,大模型備案的實踐要求處於動態調整的過程當中,例如,在保留訓練數據來源等內容的基礎上,新增了企業提供大模型下載通道、實測賬號與內容審核機制等要求。我們理解,這在一定程度上體現出監管部門對大模型備案的重視程度:隨着實踐經驗的積累,適時調整備案要求從而契合當下生成式人工智能服務的發展情況,從而實現精準收集信息、提供更為柔性的指導之目的。
因此,在正式開展大模型備案前,為提高備案的可行性,如可行,相關企業宜自行或引入上海人工智能實驗室等第三方專業機構開展大模型自測工作。遵循《基本要求》的安全評估辦法及具體評估事項開展測試工作,以“查漏補缺”,優化自身安全評估流程,提高自身的生成式人工智能服務的安全水平。
來源:金杜研究院