生成式人工智能成為歐盟立法談判的絆腳石-消息來源 | 路透社
Supantha Mukherjee,Foo Yun Chee,Martin Coulter

科技領袖們參加了一個生成式人工智能(AI)會議,舊金山正試圖將自己定位為“世界人工智能之都”,2023年6月29日,美國加利福尼亞州。路透社/卡洛斯·巴里亞/文件照片
斯德哥爾摩/布魯塞爾/倫敦,12月1日(路透社)- 六名消息人士告訴路透社,歐盟立法者無法就如何監管ChatGPT等系統達成一致意見,這對旨在控制人工智能(AI)的里程碑立法構成威脅。
隨着談判代表在12月6日的最終會談前於週五舉行關鍵討論,“基礎模型”或生成式人工智能已成為歐盟擬議的AI法案談判的主要障礙,這些消息人士稱,他們因討論內容屬機密而拒絕透露身份。
像微軟(MSFT.O)支持的OpenAI構建的基礎模型是在大量數據集上訓練的AI系統,具有從新數據中學習以執行各種任務的能力。
經過兩年的談判,該法案於6月獲得歐洲議會批准。現在,歐洲議會、理事會和歐洲委員會的代表需要通過會議達成一致意見。
歐盟國家的專家們將於週五會面,商討他們在基礎模型、源代碼獲取、罰款和其他議題上的立場,與此同時,歐洲議會的議員也將聚集起來最終確定他們的立場。
如果他們無法達成一致,由於歐洲議會明年選舉前時間不足,該法案可能面臨擱置的風險。
雖然一些專家和立法者提出了分層方法來規範基礎模型,定義為擁有超過4500萬用户的模型,但其他人表示較小的模型可能同樣存在風險。
但達成協議面臨的最大挑戰來自法國、德國和意大利,他們支持讓生成式AI模型的製造商自我監管,而不是制定嚴格的規定。
據路透社消息,10月30日在羅馬舉行的三國經濟部長會議上,法國説服意大利和德國支持了一項提案。
此前,談判進展順利,立法者在諸如規範高風險AI等其他幾個衝突領域做出了妥協,消息人士稱。
自我監管?
歐洲議員、歐盟專員Thierry Breton和大量AI研究人員批評了自我監管。
在本週的公開信中,Geoffrey Hinton等研究人員警告稱,自我監管“可能嚴重不符合基礎模型安全所需的標準”。
總部位於法國的AI公司Mistral和德國的Aleph Alpha批評了對基礎模型進行分層規範的做法,並得到了各自國家的支持。
Mistral的一位知情人士表示,該公司支持對產品制定嚴格規定,而不是對構建產品的技術。
“儘管相關利益相關者正在盡最大努力使談判保持在正確軌道上,但不斷增加的法律不確定性對歐洲產業並不利,”波士頓諮詢集團合夥人兼副董事Kirsten Rulf表示。
“歐洲企業希望為明年做計劃,許多人希望在2024年實施的歐盟AI法案周圍看到某種確定性,”她補充道。
消息人士告訴路透社,談判中的其他懸而未決的問題包括AI的定義、基本權利影響評估、執法例外和國家安全例外。
消息人士稱,立法者在11月29日的會議上也就執法機構使用AI系統在公共場所對個人進行生物識別存在分歧,並且在這些問題上無法達成一致。
擔任歐盟輪值主席國的西班牙已提出妥協方案,以加快進程。
如果12月份沒有達成協議,下一任主席國比利時將有幾個月的時間來達成協議,但在歐洲選舉前很可能會擱置。
“如果你六七週前問我,我會説我們在所有關鍵問題上都看到了妥協的出現,”致力於減少先進AI風險的非營利組織未來生命研究所政策總監Mark Brakel表示。
“現在情況變得困難得多,”他説。