歐盟人工智能法案是什麼,監管何時生效? | 路透社
Martin Coulter
2023年5月31日,比利時布魯塞爾歐盟議會大樓的一般景觀。路透社/伊夫·赫爾曼/檔案照
倫敦,12月6日(路透社) - 圍繞歐盟首個管理人工智能(AI)的規則的談判看起來將在週三迎來戲劇性的高潮,因為立法者們進入一些人希望是具有里程碑意義的立法的最後一輪討論。
決定將成為其他國家尋求制定其自身AI行業規則的藍圖。
在會議之前,立法者和政府無法就包括快速增長的生成式AI的監管及其在執法中的使用等關鍵問題達成一致。
以下是我們所知道的:
CHATGPT是如何使AI法案偏離軌道的?
主要問題在於該法律的初稿是在2021年初編寫的,幾乎是在OpenAI的ChatGPT發佈之前,後者是歷史上增長最快的軟件應用之一。
立法者們一邊匆忙制定規定,一邊像微軟(MSFT.O)旗下的OpenAI這樣的公司繼續發現其技術的新用途。
OpenAI的創始人山姆·奧爾特曼和計算機科學家們也發出了有關創造強大、高智能機器可能威脅人類的危險的警告。
2021年,立法者們關注特定用例,根據人工智能工具設計的任務對其進行監管,並按風險從最小到最高進行分類。
在許多領域使用人工智能,比如航空、教育和生物特徵監視,被認為是高風險,要麼作為現有產品安全法律的延伸,要麼因為它們構成潛在的侵犯人權的威脅。
2022年11月,ChatGPT的到來迫使立法者重新考慮這一點。
這個所謂的“通用人工智能系統”(GPAIS)並不是為了一個單一的用例而構建的,而是完成各種任務:進行類似人類的對話,創作十四行詩,甚至編寫計算機代碼。
ChatGPT和其他生成式人工智能工具並不明確地符合該法案最初的風險類別,引發了關於它們應該如何受到監管的持續爭論。
提案是什麼?
通用人工智能系統,也被稱為基礎模型,可以由開發人員“在其基礎上”構建新的應用程序。
研究人員有時會被人工智能的行為搞得措手不及,比如ChatGPT“產生幻覺”的習慣,其中底層模型經過訓練以最佳預測一系列句子,但有時會產生聽起來令人信服但實際上是錯誤的答案,-- 基礎模型代碼中隱藏的任何特殊之處在不同環境中部署時可能會以意想不到的方式發揮作用。
歐盟關於規範基礎模型的提案包括要求公司清楚記錄其系統的訓練數據和能力,證明他們已經採取措施來減輕潛在風險,並接受外部研究人員進行的審計。
最近幾周,歐盟最有影響力的國家法國、德國和意大利對此提出了挑戰。
這三個國家希望生成式人工智能模型的製造商被允許自我監管,而不是強迫它們遵守嚴格的規定。
他們表示,嚴格的規定將限制歐洲公司與谷歌(GOOGL.O)和微軟(MSFT.O)等主導美國公司競爭的能力。
構建基於OpenAI代碼的工具的小公司也將面臨更嚴格的規定,而像OpenAI這樣的提供商則不會。
執法方面的問題是什麼?
據路透社報道,立法者對執法機構在公共場所使用人工智能系統進行個人生物識別存在分歧。
歐盟立法者希望制定法規保護公民的基本權利,但成員國希望為了國家安全的利益,例如警察或邊境保護機構的使用技術具有一定的靈活性。
一位消息人士表示,如果對其使用的豁免權受到限制並得到明確定義,歐洲議會可能會放棄對遠程生物識別的禁令提案。
可能的結果是什麼?
如果最終的文本在週三達成一致,歐盟議會理論上可以在本月晚些時候投票通過該法案。即使如此,可能還需要接近兩年的時間才能生效。
然而,如果沒有最終協議,歐盟立法者和政府可能會達成“臨時協議”,具體細節將在數週的技術會議中敲定。這可能重新引發長期存在的分歧。
他們仍然需要準備好在春季進行投票。如果沒有達成協議,該法律可能會被擱置,直到6月的議會選舉之後,27個成員國的集團將失去在技術監管方面的先發優勢。