谷歌、微軟、OpenAI等科技公司尋求按照他們的條件對人工智能進行監管 - 彭博社
Jillian Deutsch
Sam Altman 幾周前出現在國會,討論人工智能帶來的危險。
攝影師:Eric Lee/Bloomberg
OpenAI 首席執行官 Sam Altman 上個月出人意料地向國會發出警告,稱人工智能帶來的危險。突然間,科技公司似乎從社交媒體的問題中吸取了教訓,並希望以不同方式推出人工智能。更令人矚目的是:他們希望政治家的幫助。
但一週後,Altman 在倫敦向記者講述了不同的故事。ChatGPT 創造者的負責人表示,他將嘗試遵守歐盟規定,但如果這太困難,他的公司將在該地區“停止運營”。這一言論引發了內部市場專員 Thierry Breton 指責 Altman “企圖勒索”。Altman 在第二天澄清了他的言論,當首席執行官和專員上週見面時,他們一致認為他們在監管方面是一致的。
山姆·奧特曼在5月24日的倫敦。攝影師:克里斯·J·拉特克利夫/彭博社人工智能發展正在迅猛前進。僅在今年前四個月,該領域風險投資資金就超過了10億美元,各種系統已經在從牙刷到無人機的各個領域投入使用。未來事物的發展程度和速度將在很大程度上取決於政府是否介入。
大型科技公司表示他們希望監管。現實情況更為複雜。在美國,谷歌、微軟、IBM和OpenAI已要求立法者監督人工智能,他們表示這對確保安全性和與中國的競爭力是必要的。與此同時,在歐盟,政客們最近投票通過了一項草案立法,將對生成式人工智能設定限制,而這些同樣公司的遊説者正在反對他們認為會不必要地限制科技最熱門新領域的措施。

收聽 • 2分鐘55秒
Jillian Deutsch談歐盟的人工智能監管(音頻)
兩岸科技監管規則存在巨大差異。歐盟已經有全面的數據保護法律已經實施了五年多,正在實施嚴格的競爭和內容管理指南。然而,在美國,兩十多年來幾乎沒有任何監管。在國內呼籲監督一直是大型科技公司在引導歐洲立法朝更有利方向發展時製造良好公關的方式,根據許多參與該集團即將出台的人工智能法案的官員的説法。
科技公司知道他們不能忽視歐盟,特別是因為其社交媒體和數據保護規則已成為全球標準。歐盟的AI法案可能會在未來兩到三年內出台,這將是西方政府首次嘗試對人工智能進行監管,並且支持嚴厲的處罰。如果公司違反該法案,歐盟可能會對公司年營業額的6%進行罰款,並禁止其產品在歐盟運營,歐盟估計佔全球AI市場的20%至25%,該市場預計在未來10年內將超過1.3萬億美元。價值超過1.3萬億美元。
這讓該行業處於一個微妙的位置。如果該法案的某個版本成為法律,DataEthics智庫聯合創始人Gry Hasselbalch表示,最大的AI提供商“將需要從根本上改變他們的透明度、風險處理方式和部署模式。”
風險業務
歐洲議會議員於6月14日就《人工智能法案》進行投票。攝影師:Frederick Florin/AFP/Getty Images草案的大部分內容集中在“高風險”案例的規定上。例如,發佈用於預測犯罪或篩選工作申請的AI系統的公司將被限制只能使用高質量數據,並需要進行風險評估。此外,草案要求在深度偽造和聊天機器人方面進行透明度:人們必須被告知他們正在與AI系統交談,並且生成或篡改的內容需要被標記。文本中沒有提及生成式AI,這是一類機器學習算法,能夠創建新的圖像、視頻、文本和代碼,但尚未大規模爆發。
大型科技公司對這種方法表示歡迎*。*他們還試圖軟化邊緣。雖然草案表示開發人員應對其系統的使用負責,但公司及其行業團體認為用户也應承擔責任。微軟在一份立場文件中辯稱,由於生成式AI的潛力使得公司“無法預料部署場景的全部範圍及其相關風險”,因此“着眼於部署者對AI系統的實際使用”尤為關鍵。在閉門會議中,科技公司的官員們堅持認為AI本身只是一個反映用户意圖的工具。
更重要的是,IBM希望確保“通用人工智能” — 一個更廣泛的類別,包括圖像和語音識別、音頻和視頻生成、模式檢測、問題回答和翻譯 — 被排除在監管之外,或者在微軟的情況下,由客户來處理監管檢查,根據發送給立法者的修正草案。
許多公司堅持這一立場。IBM歐盟事務負責人讓-馬克·勒克萊克在給彭博社的聲明中寫道,與其“試圖將技術作為一個整體來控制”,不如“我們敦促繼續採取基於風險的方法。”
一些最強大的人工智能系統可能基本上避開監管的觀念引起了行業觀察者的警覺。未來生命,一個最初部分由埃隆·馬斯克資助的非營利組織,當時寫道,“未來的人工智能系統將比GPT-3更通用”,需要明確進行監管。未來生命的主席馬克斯·泰格馬克寫道,“而不是‘按照有限的一組聲明的預期目的對其進行分類’,提案應要求對所有預期用途(和可預見的誤用)進行完整的風險評估。”
威脅評估
看起來大科技公司將得到他們想要的 — 有一段時間,一些國家甚至考慮完全排除通用人工智能的文字 — 直到2022年春季,政治家們開始擔心他們低估了其風險。在很大程度上是在法國的敦促下,歐盟成員國開始考慮對所有通用人工智能進行監管,無論用例如何。
這是OpenAI參與歐洲立法過程的時刻。2022年6月,該公司的公共政策負責人在布魯塞爾會見了官員。不久之後,該公司向委員會和一些國家代表發送了一份立場文件,首次由《時代》報道,稱他們“擔憂”一些提案“可能會無意中導致所有我們的通用人工智能系統被默認捕獲。”
然而,歐盟國家繼續推動,要求所有通用人工智能符合一些高風險要求,如風險評估,具體細節將在以後解決。包含這一內容的草案立法在12月獲得批准 — 就在ChatGPT發佈一週後。
受到聊天機器人的能力和前所未有的流行度的衝擊,歐洲議會成員在下一份草案中採取了更加嚴厲的態度。最新版本,兩週前獲得批准,要求像OpenAI這樣的“基礎模型”開發者必須總結用於訓練大型語言模型的受版權保護的材料,評估系統可能對民主和環境構成的風險,並設計出無法生成非法內容的產品。
Dragos Tudorache在6月13日歐洲議會人工智能法案全體會議上。來源:Mathieu Cugnot/歐洲議會“最終,我們要求生成式人工智能模型透明一點,”AI法案的兩位主要作者之一Dragos Tudorache解釋道。如果“將算法暴露於不良事物存在危險,那麼開發者必須努力提供保障。”
儘管Meta、蘋果和亞馬遜基本保持沉默,其他關鍵開發者正在反擊。在向立法者發表評論時,谷歌表示,議會的控制措施實際上將把通用人工智能視為高風險,而事實並非如此。公司還抗議稱,新規定可能干擾現有規定,有幾家公司表示他們已經實施了自己的控制措施。“僅僅是聲譽受損的可能性已經足夠激勵公司大規模投資於用户安全,”來自行業團體CCIA的Boniface de Champris表示。
大語言
隨着公眾實時目睹生成式人工智能的缺陷,科技公司越來越強烈地要求監管—而且,據官員稱,更願意進行談判。在Altman和谷歌的Sundar Pichai在五月底與歐盟監管機構進行見面會後,競爭主管Margrethe Vestager承認大科技公司 正在改變態度,接受透明度和風險要求。
這種方法是“非常務實的,”Tudorache説,並補充説,反對監管的開發者將“站在歷史的錯誤一端[並且會]冒着自己的商業模式受到風險”的風險。
一些批評者還提出,早期遵守監管可能是大公司確保市場主導地位的一種方式。“如果政府現在介入,”柏林赫蒂學院(Hertie School)的倫理與技術教授Joanna Bryson解釋説,“那麼他們就可以鞏固自己的領先地位,並找出誰會接近他們。”
如果你問科技公司,他們會告訴你他們並不反對監管 —— 他們只是不喜歡一些提議。“我們從一開始就認識到微軟將在技術堆棧的幾個層面受到監管;我們並不逃避監管,”微軟的一位發言人寫道,表達了許多開發者的觀點。該公司還聲援建立一個新的AI監管機構以確保安全標準併發放許可證。
與此同時,科技公司和貿易團體繼續抵制議會和成員國對AI法案的修改。開發者一直在要求更多關於監管在實踐中會是什麼樣子,以及比如OpenAI將如何評估ChatGPT對民主和環境的影響。在某些情況下,他們接受了某些參數,同時挑戰了其他參數。
例如,OpenAI在四月份寫信給立法者,表示支持監控和測試框架,以及一套新的通用AI標準,據彭博社看到的評論稱。谷歌 —— 最近在美國支持了一個“輪輻和輪轂”監管模式,要求監管分散到許多不同的機構,而不是一個單一的中央機構 —— 支持風險評估,但繼續支持基於風險的方法。谷歌沒有回應評論請求。
法國總統埃馬紐埃爾·馬克龍上週在一次法國科技大會上表示,歐盟需要小心不要對人工智能進行過度監管。攝影師:Yoan Valat/AFP/Getty Images然而,隨着人工智能的盈利潛力變得更加清晰,一些政客開始接受行業的觀點。法國前數字大臣、轉型為科技顧問的塞德里克·奧上個月發出警告,稱監管過度可能會損害歐洲的競爭力。法國總統埃馬紐埃爾·馬克龍支持他的觀點,在議會投票後不久在一次法國科技大會上表示,歐盟需要注意不要對人工智能進行過度監管。上個月警告。直到AI法案的最終投票結束,歐盟到底會在多大程度上決定對這項技術進行監管還不清楚。但即使談判代表儘可能快地行動,公司也不需要在2025年左右之前遵守這項法案。與此同時,這個行業正在向前發展。