歐盟計劃對最強大的生成式人工智能模型實施更嚴格的規定 - 彭博社
Alberto Nardelli, Jillian Deutsch
歐盟正在考慮採取三層方法來規範生成式人工智能模型和系統,根據彭博社看到的一份提案,這是遏制快速發展的技術的開創性努力的一部分。
這三個級別將為不同的基礎模型建立規則 — 這些人工智能系統可以適應一系列任務 — 並要求對最強大的技術進行額外的外部測試,根據文件。
歐盟有望成為第一個在人工智能上制定強制規則的西方政府。根據所提議的名為AI法案的立法,預測犯罪或分類工作申請的系統將必須進行風險評估,以及其他要求。談判代表希望在下次會議上,即10月25日,完善立法,目標是在年底前最終敲定。
閲讀更多: 製作偽視頻變得如此容易,以及為什麼構成威脅
根據提議的規則,第一類將包括所有基礎模型。第二層的“非常有能力”系統將根據用於訓練其大型語言模型的計算能力的數量來區分 — 這些算法使用大規模數據集來開發人工智能能力。根據提案,這些模型可能“超越當前的技術水平,可能尚未完全被理解”。
最後,第三類被稱為規模化通用人工智能系統,將包括最受歡迎的人工智能工具,並將根據用户總數來衡量。
歐洲委員會目前尚未就此發表評論。
自去年OpenAI發佈ChatGPT以來,生成式人工智能工具在人氣上迅速增長,這導致科技行業大部分公司紛紛着手開發自己的版本。生成式人工智能軟件可以根據其龐大的語言模型對簡單提示做出文本、圖片和視頻回應,通常表現出令人不安的高超技能。
歐盟在如何處理這項技術方面仍面臨一些關鍵問題,包括如何確切地監管生成式人工智能以及是否完全禁止在人羣中進行實時面部掃描。歐盟議會和委員會的計劃遭到批評,認為政府可能會阻礙小公司與主要科技巨頭競爭的能力。
歐盟三個機構的代表通常支持分層方法,但技術專家在本月早些時候制定了更具體的提案。根據彭博社看到的10月16日文件,這些想法正在成形,儘管隨着談判的展開它們可能會發生變化。
以下是歐盟可能如何處理這三個層次:
1. 所有基礎模型
在將任何模型投放市場之前,人工智能開發者將受到透明度要求的約束。他們必須記錄模型及其訓練過程,包括內部“紅隊”努力的結果 —— 即獨立專家嘗試推動模型產生不良行為的過程。還將進行基於標準化協議的評估。
在一個模型上市後,公司需要向使用該技術的企業提供信息,並使它們能夠測試基礎模型。
公司必須包括一個“足夠詳細”的內容摘要,説明他們用來開發模型的內容以及如何處理版權問題,包括確保權利持有人可以選擇不讓他們的內容用於訓練模型。公司還必須確保人工智能內容可以與其他材料區分開來。
談判代表提議將基礎模型定義為能夠“勝任各種獨特任務的系統”。
2. 非常有能力的基礎模型
生產這一技術層次的公司將遵守更嚴格的規定。在上市之前,這些模型將不斷接受外部專家的紅隊測試,這些專家將由歐盟新成立的人工智能辦公室審查。這些測試的結果將發送給該機構。
公司還必須引入系統以幫助發現系統風險。在這些模型上市後,歐盟將由獨立審計員和研究人員執行合規控制,包括檢查公司是否遵守透明度規則。
談判代表還在考慮創建一個公司討論最佳實踐和由歐洲委員會支持的自願行為準則的論壇。
非常有能力的基礎模型將根據訓練它們所需的計算能力進行分類,使用一種稱為FLOPS的度量,即每秒浮點運算次數。確切的閾值將由委員會在以後確定,並根據需要進行更新。
公司可以對這一評估提出異議。相反,委員會可以考慮一個模型非常出色,即使它在調查後沒有達到門檻。談判者還在考慮使用該模型的“潛在影響”——基於構建在其上的高風險人工智能應用數量——作為對技術進行分類的一種方式。
3. 大規模通用人工智能系統
這些系統還必須接受外部專家的紅隊測試,以識別漏洞,並將結果發送給委員會的人工智能辦公室。公司還必須引入風險評估和緩解系統。
歐盟將考慮任何擁有1萬註冊商業用户或4500萬註冊終端用户的系統為大規模通用人工智能系統。委員會隨後將確定如何計算用户數量。
公司可以對其作為大規模通用人工智能系統的地位提出上訴,同樣,歐盟可以要求其他系統或模型遵守這些額外規則——即使它們沒有達到門檻但可能“帶來風險”。
需要進一步討論以確定防範通用人工智能系統和非常出色人工智能系統生成非法和有害內容的防護措施。
大規模通用人工智能系統和非常出色基礎模型的額外規則將由新的人工智能辦公室監督。根據文件,該機構可以要求文件,組織合規測試,創建經過審查的紅隊測試人員註冊表並進行調查。該機構甚至可以作為“最後手段”暫停一個模型。
該機構雖然設在委員會內,但將是“獨立的”。歐盟可以通過從大規模通用人工智能和非常強大的基礎模型收取費用來為辦公室僱傭人員。