巴黎人工智能行動峯會的承諾還遠遠不夠——彭博社
Parmy Olson
2025年2月10日週一,巴黎人工智能行動峯會與會者。
攝影師:Nathan Laine/彭博社本週巴黎接待了來自100多個國家的代表,共同探討人工智能的未來。最終60國簽署了一份模糊的協議,該協議幾乎無助於提升技術安全性。
線索就在名稱中。這個國際會議系列最初由英國於2023年作為"人工智能安全峯會"發起,到巴黎舉辦時已更名為"人工智能行動峯會"。總統埃馬紐埃爾·馬克龍藉此平台宣佈了1090億歐元(1130億美元)的AI投資計劃,並向全球推介法國科技。
彭博社觀點特朗普讓我們再次討論貿易問題。這是一場勝利"關税俠"再次出手——市場卻置若罔聞黃金狂熱FOMO正為市場埋下暴跌隱患英國社會已支離破碎,無力承擔輔助死亡立法在眾多陳詞濫調中,你需要費力尋找與安全相關的內容。這份長達799字的最終聲明更側重於AI的經濟機遇,而非推進此前在英國和韓國峯會上確立的安全措施。
儘管布萊切利公園和首爾會議確保了大型AI公司的具體承諾,即通過新成立的國際安全機構網絡測試其系統,但巴黎聲明卻呼籲實現諸如使AI“值得信賴”等模糊目標。令人難以置信的是,這對美國來説仍然過於繁重,其副總統JD·萬斯抱怨道:“對AI行業的過度監管可能會扼殺這個正在崛起的變革性產業。”
首先,該協議遠非過度。其次,美國的AI產業不僅僅是“正在崛起”。其公司是行業的標杆,英偉達公司在訓練和推理芯片上幾乎形成事實壟斷,微軟公司和字母表公司則掌控着大部分雲基礎設施和最受歡迎的AI模型。
但美國拒絕簽署該協議,可能是出於對中國日益增長的偏執。上個月,一家名為深度求索的中國小公司憑藉一款AI模型登上應用排行榜榜首,其性能媲美最新版ChatGPT,構建成本更低,且允許任何人免費使用和複製——你可以確信硅谷的工程師們此刻正在這麼做。
更奇怪的是,英國也以看似相反的理由拒絕簽署聲明。政府發言人表示:“我們認為該宣言未能就全球治理提供足夠的實踐指引。”
這聽起來更合理。需要提醒的是:人工智能正以前所未有的速度發展,其系統即將在沒有明確護欄的情況下做出關於醫療保健、執法和金融的高風險決策。麻省理工學院物理學教授、未來生命研究所聯合創始人馬克斯·泰格馬克表示,模糊的承諾是"對國際與技術合作的倒退"。他一直是倡導人工智能安全措施的主要聲音之一。
他表示,峯會至少應該解決上個月由150多位專家簽署的《國際人工智能安全報告》提出的安全問題。峯會還應該將布萊切利公園和首爾峯會上的"自願承諾"轉化為對人工智能公司的要求,即在向公眾部署新系統之前進行安全測試,並分享結果。
如果能設定一個制定具有約束力的國際法律的最後期限,以及更清晰的閾值來規定人工智能系統何時達到某些能力水平(例如推理或速度)以觸發進一步審計,那也會是件好事。
我們不應該等到災難發生,政府才意識到這種變革性技術的風險。例如,我們不應該重蹈對汽車安全反應遲緩的覆轍,當時直到1960年代數千人死亡後,安全帶才成為強制要求。
《華盛頓郵報》記者傑弗裏·福勒近期報道的一則軼事凸顯了事情可能如何失控。這位作家讓新版"自主代理"ChatGPT獨自操作他的電腦並獲取信用卡權限。在要求其尋找最便宜的雞蛋後,該機器人通過Instacart以高價購買了一打雞蛋,加上服務費和小費共計31美元。“它失控了,“福勒寫道。
雖然這或許比不上AI對電網或金融市場造成的破壞嚴重,但這個例子表明,即使企業和政府爭相部署這些系統,其中的錯誤仍會帶來代價且可能毫無徵兆地發生。
如果話題換成醫療保健、航空或社交媒體,萬斯提出的優先考慮"促增長"政策而非安全的呼籲會顯得荒謬可笑。人工智能領域也不應例外。政府必須更積極地扮演主動監管者的角色,並強調標準、權利和保護的價值。這可能不會為它們贏得科技行業內外企業的多少好感,但遠比袖手旁觀直到災難發生要好得多。在盧旺達基加利舉行的下一屆峯會需要在AI的錯誤從擅自購買雜貨升級到更嚴重事件之前,建立更具體的監督機制。更多彭博觀點內容:
想要更多彭博觀點?OPIN<GO>。或者您可以訂閲我們的每日通訊。