拜登政府警示人工智能風險 白宮應對能力有限——《華爾街日報》
Sabrina Siddiqui and John D. McKinnon
華盛頓——拜登政府正面臨人工智能應用迅速擴張的局面,在監管權限有限的情況下,警告該技術對公共安全、隱私和民主構成的威脅。
副總統卡瑪拉·哈里斯週四會見了谷歌、微軟 、OpenAI和Anthropic等領先人工智能公司的首席執行官,她表示該技術"可能大幅增加對安全和安保的威脅,侵犯公民權利和隱私,並削弱公眾對民主的信任和信心。"
她補充説,企業有責任遵守現行法律,同時也有"確保其產品安全性和可靠性的倫理、道德和法律責任"。
白宮會議宣佈將投入1.4億美元新資金用於人工智能研發。但聯邦政府對OpenAI的ChatGPT等工具的監管權限仍然有限,這些工具引發了人們對隱私、偏見以及大規模詐騙和錯誤信息潛在風險的擔憂。
拜登政府將人工智能視為美國的重大機遇,但也伴隨着重大風險。例如,政府指出,旨在輔助患者護理的系統有時被證明不安全或無效,而用於招聘或貸款的算法則複製了現有的不平等,甚至產生了新的偏見和歧視。
但迄今為止,政府試圖將確保公共安全的大部分責任推給開發該技術的公司。
一些觀察人士表示,這在一定程度上反映出白宮目前缺乏監管人工智能的工具。對於能夠生成逼真但潛在危險內容(如圖像或音頻)的生成式人工智能技術類別來説,情況尤其如此。
Alphabet首席執行官桑達爾·皮查伊(左)和OpenAI首席執行官薩姆·奧爾特曼是週四參加白宮人工智能會議的科技領袖之一。照片:埃文·武奇/美聯社公共利益組織“公共公民”主席羅伯特·韋斯曼表示,在生成式人工智能方面,“聯邦政府有一些工具,但大多數情況下沒有。”例如,拜登總統不能在制定監管護欄之前暫停人工智能開發。
韋斯曼補充説,這是一個特別令人擔憂的問題,因為雖然技術正在飛速發展,並帶來虛假信息和社會分裂的風險,但公司“覺得他們不能停下來,因為競爭對手會領先於他們。”
包括埃隆·馬斯克在內的一些領先技術專家呼籲暫停人工智能開發,理由是安全標準的發展需要。一位頂級谷歌科學家最近辭去了他的職位,他向記者描述這一舉動是為了讓他能夠自由表達對技術快速擴展能力的擔憂。
參加週三會議的企業並未放緩腳步。由OpenAI和微軟推出的廣受歡迎的工具ChatGPT據稱已擁有1億用户,成為歷史上用户增長最快的消費級應用。
微軟、谷歌、OpenAI和Anthropic此前均表示,他們持續更新安全防護措施,例如對聊天機器人進行人工審核或設定程序使其不回答某些問題。這些企業歡迎並積極推動新法規的制定。
出席週四會議的行業領袖包括谷歌及其母公司Alphabet首席執行官桑達爾·皮查伊、微軟CEO薩提亞·納德拉、OpenAI首席執行官山姆·奧爾特曼以及Anthropic CEO達里奧·阿莫迪。谷歌、OpenAI和微軟的發言人均拒絕置評。Anthropic未立即回應評論請求。
會議結束後,白宮表示與會者就企業透明度需求、AI系統的安全性及有效性,以及防範"惡意行為者和攻擊"等議題進行了"坦誠而富有建設性的討論"。
去年白宮曾發佈指導方針,旨在防止個人數據被用於AI算法濫用(如涉及招聘、貸款等商業決策的算法),當時政府稱其為"AI權利法案藍圖"。但這些指導方針不具備約束力,也未包含強制執行措施。
除國家科學基金會新增1.4億美元AI研究經費外,政府本週還宣佈領先AI開發商承諾將在即將召開的會議上參與AI系統的公開評估。白宮表示:“這項獨立評估將為研究人員和公眾提供關於這些模型影響的關鍵信息,並使AI公司和開發者能夠採取措施修復模型中發現的缺陷。”
副總統卡瑪拉·哈里斯表示,人工智能企業負有’確保其產品安全性的倫理、道德和法律責任’。圖片來源:肯·塞德諾/新聞池白宮科技政策辦公室同時宣佈,將啓動一項計劃以收集更多關於僱主如何運用AI監測員工工作表現的信息。
科技政策辦公室在博客中強調:“持續的工作表現監控可能迫使員工過度追求效率,從而對其安全與心理健康構成威脅。”
此外,執法機構近期聯合發佈聲明,承諾將運用現有法定權限保護公眾免受人工智能相關危害。
出席週四會議的高級官員包括白宮幕僚長傑夫·齊恩茨、國家安全顧問傑克·沙利文以及商務部長吉娜·雷蒙多。
白宮當前的舉措可能助推參議院領袖正在籌劃的立法進程。參議院多數黨領袖查克·舒默(紐約州)上月表示計劃推動立法,以"引導和利用這項強大技術"。
部分共和黨人也表現出對人工智能立法的興趣,認為這有助於美國在經濟領域與中國競爭。
但在當前由民主黨控制參議院、共和黨掌控眾議院,且面臨明年總統大選的國會環境下,任何重大立法進程都充滿變數。舒默週四在參議院發言時指出,人工智能監管問題本身也具有高度複雜性。
“這是一個需要深入探討且難以處理的複雜問題,因此我們目前正在與眾多專家進行會晤,”他説道。
請致信薩布麗娜·西迪基,郵箱:[email protected],以及約翰·D·麥金農,郵箱:[email protected]