新的歐盟人工智能法規:它們對ChatGPT等模型意味着什麼?- 彭博社
Jillian Deutsch
ChatGPT 應用程序的標誌。
攝影師:Kirill Kudryavstev/AFP/Getty Images
歐盟達成了初步協議,限制了先進的 ChatGPT 模型的運作方式,這被視為世界上第一個全面人工智能監管的關鍵部分。
所有通用人工智能系統的開發者(即具有廣泛可能用途的強大模型)必須滿足基本的透明度要求,除非它們是免費且開源的,根據彭博社看到的歐盟文件。
這些要求包括:
- 擁有可接受的使用政策
- 及時更新有關模型訓練方式的信息
- 報告用於訓練模型的數據的詳細摘要
- 擁有尊重版權法的政策
根據文件,被認為構成“系統性風險”的模型將受到額外規定。歐盟將根據用於訓練模型的計算能力量確定該風險。閾值設定為每秒使用超過 10 萬億萬億(或者是 septillion)次運算的模型。
據專家稱,目前唯一能夠自動滿足這一閾值的模型是 OpenAI 的 GPT-4。歐盟的行政機構可以根據數據集的大小、在歐盟註冊的企業用户數量、或者註冊終端用户數量等其他可能的指標來指定其他模型。
閲讀更多: 歐洲與首個協議確立AI監管立場
這些高度能幹的模型應該簽署行為準則,與此同時歐洲委員會將制定更加協調和長期的控制措施。那些不簽署的模型將需要向委員會證明它們遵守AI法案。對於被視為構成系統風險的模型,開源模型的豁免不適用。
這些模型還需要:
- 報告它們的能源消耗
- 進行紅隊測試,或者內部或外部進行對抗性測試
- 評估和減輕可能的系統風險,並報告任何事件
- 確保它們使用足夠的網絡安全控制
- 報告用於微調模型和系統架構的信息
- 如果開發了,符合更加節能的標準
這項暫定協議仍需獲得歐洲議會和歐盟27個成員國的批准。法國和德國此前曾表示擔憂,認為對通用AI模型施加過多監管可能會扼殺法國的 Mistral AI 或德國的 Aleph Alpha 等歐洲競爭對手。
目前,Mistral可能不需要遵守通用AI控制措施,因為該公司仍處於研發階段,西班牙國務秘書Carme Artigas在上週六早些時候表示。