美國政府委託報告建議:應限制人工智能,避免"滅絕級"威脅_風聞
乌鸦智能说-42分钟前
週一發佈的一份美國政府委託報告顯示,美國政府必須"迅速果斷"採取行動,避免人工智能(AI)潛在的重大國家安全風險。
“當前人工智能前沿發展對國家安全構成的風險,緊迫且日益增長。”《時代》週刊在發佈前獲得了這份報告。“先進人工智能和AGI(人工通用智能)的崛起有可能破壞全球安全的穩定,其威力不禁讓人想起上世紀的核武器。“AGI目前仍是一種假想技術。據傳,AGI可以執行大多數任務,達到或超過人類的水平。這種系統尚未出世,但領先的人工智能實驗室正在加緊研發相關技術。許多人預計這將在未來五年或更短時間內成為現實。
撰寫報告的三位作者花了一年多的時間與200多名政府僱員、專家和前沿人工智能公司的工作人員進行了交談,例如OpenAI,GoogleDeepMind,Anthropic和Meta等公司的研發人員。與專家的談話傳遞了很多讓人不安的訊息,頂尖實驗室中的許多人工智能安全工作者認為,公司高管在決策過程中採取的部分激勵措施過於激進。
這份題為《提高先進人工智能安全性的行動計劃》(AnActionPlantoIncreasetheSafetyandSecurityofAdvancedAI)的文件建議,政府應當採取一系列監管AI發展的政策,而這些政策一經頒佈,將從根本上顛覆現有人工智能產業。報告建議,國會應將訓練超過規定算力的人工智能模型定性為非法行為。報告建議成立一個新的聯邦人工智能機構來設定算力標準,將這一門檻設定在略高於目前用於訓練OpenAI的GPT-4等尖端模型的計算能力水平之上。報告還説,新的人工智能機構應要求處於行業"前沿"的人工智能公司在訓練和部署新模型時獲得政府許可,使其高於某個較低的門檻。報告稱,當局還應"緊急"考慮禁止公佈強大的人工智能模型的"權重"或內部工作原理,例如在開源許可下公佈,違者可能會被判處監禁。報告建議,政府應進一步加強對人工智能芯片製造和出口的控制,並將聯邦資金用於"對齊"研究,使先進的人工智能更加安全。
根據公開記錄,這份報告是美國國務院於2022年11月委託編寫的,隸屬於一份價值25萬美元的聯邦合同。該報告由格拉德斯通人工智能公司(GladstoneAI)撰寫。該公司是一個專門為政府僱員提供人工智能技術簡報的四人團隊。(行動計劃的部分內容建議政府投入大量資金,對官員進行人工智能系統技術基礎方面的教育,以便他們更好地瞭解其風險)。
報告文件共計247頁,於2024年2月26日提交給國務院。報告第一頁説,這些建議“並不反映美國國務院或美國政府的觀點”。至今,國務院尚未就該報告發表任何官方言論。
這份報告中的建議主要針對人工智能行業目前的高速發展。2022年11月,聊天機器人ChatGPT的橫空出世,讓公眾開始撕開AI可能給人類社會帶來的生存風險。在世界各國政府緊急商議人工智能監管政策的同時,世界上最大的科技公司也在加大力度建設基礎設施,以訓練更強大的AI系統--某些情況下,公司計劃使用10倍或100倍以上的計算能力。與此同時,80%以上的美國公眾認為人工智能可能會意外引發災難性事件,77%的選民認為政府應該加大對人工智能的監管力度。該份民意調查來自人工智能政策研究所。
報告指出,嚴格規範人工智能系統的算力規格,可能會"緩和現有人工智能開發者之間的競爭態勢”,並有助於降低芯片行業製造更快硬件的速度。報告建議,隨着時間的推移,一旦尖端模型的安全性得到充分證明,聯邦人工智能機構可以提高門檻,允許訓練更先進的人工智能系統。報告稱,同樣,如果發現現有模型存在危險能力,政府也可以降低門檻。
但政府可能不會採納這份建議。戰略與國際研究中心(CSIS)瓦德瓦尼人工智能與先進技術中心主任格雷格-艾倫(GregAllen)在回應《時代》週刊就報告中關於取締超過一定閾值的人工智能訓練運行的建議所提供的摘要時説:“我認為美國政府採納極有可能不會採納這份建議。”他指出,美國政府目前的人工智能政策是設定計算閾值,超過該閾值則需要額外的透明度監控和監管要求,但並沒有設定超過該閾值的訓練運行即為非法的限制。艾倫説:“不出意外的話,他們不太可能改變這種做法。”
自2021年起,格萊斯頓公司(Gladstone)的首席執行官和首席技術官,傑雷米-哈里斯(JeremieHarris)和愛德華-哈里斯(EdouardHarris)一直在向美國政府介紹人工智能的風險。他們説,早期關注該事件的政府官員都認為人工智能的風險很大,這些風險的責任應分散到不同的團隊或部門。
哈里斯兄弟説,2021年底,格萊斯頓終於找到了監管人工智能風險的政府部門:國務院國際安全與防擴散局。國際安全與防擴散局內的各個小組承擔着跨機構的任務,負責應對新興技術帶來的風險,包括化學和生物武器以及放射性和核風險。在傑雷米和格萊斯頓公司當時的首席執行官馬克-比厄爾(MarkBeall)做簡報後,該局於2022年10月發出了一份報告招標書,決定是否將人工智能加入其監控的其他風險清單。(國務院沒有回應就該決定結果發表評論的請求)。格拉德斯通團隊贏得了這份合同,週一發佈的報告就是其成果。
報告重點闡述了兩類不同的風險。報告將第一類風險稱為“武器化風險”:“這類系統有可能被用來設計甚至實施災難性的生物、化學或網絡攻擊,或在蜂羣機器人技術中實現前所未有的武器化應用”。第二類是報告中所説的"失控"風險,即先進的人工智能系統可能超越其創造者。報告稱,“我們有理由相信,如果使用現有技術開發,它們可能無法控制,並可能在默認情況下對人類採取敵對行為”。
報告稱,人工智能行業的"競爭態勢"加劇了這兩類風險。最先研發人工智能的公司將獲得大部分的經濟利潤,因此他們會優先考慮發展速度而非相關安全議題。“報告説:“前沿人工智能實驗室面臨着一種強烈而直接的激勵,鞭策他們儘可能快地擴展其人工智能系統。“與AI相關的安全安保措施不會帶來經濟利益,鮮少有公司將錢花在這上面。”
格拉德斯通報告指出,硬件--特別是目前用於訓練人工智能系統的高端計算機芯片--是提高人工智能能力的重要瓶頸。報告認為,規範這種硬件的擴散可能是“保障人工智能長期全球安全和安保的最重要要求”。報告稱,政府應探索將芯片出口許可證與芯片技術掛鈎的可能性,以監測芯片是否被用於大型人工智能訓練運行,以此來執行針對訓練規模超過GPT-4的人工智能系統的擬議規則。不過,報告也指出,美國也應謹慎過度監管可能會促進外國芯片產業的發展,從而削弱美國影響供應鏈的能力。
報告還提出了一種可能性,即宇宙不會眷顧那些試圖通過芯片阻止高級人工智能發展的人。“隨着人工智能算法的不斷優化,用較少的算力就能實現更多的人工智能功能。隨着這一趨勢不斷增強,通過壟斷算力阻撓AI發展只是痴人説夢。鑑於此,報告建議成立新的聯邦人工智能機構,阻止相關研究成果的發表。當然,因為這會極大損害美國的人工智能產業,最終將難以落地。
哈里斯夫婦在談話中認識到,他們的建議會讓人工智能行業的許多人覺得過於瘋狂。他們預計,禁止開源高級人工智能模型開源的建議不會受歡迎。格拉德斯通公司首席技術官愛德華説:“開源通常是一種美妙的願景,將造福整個人類社會。”要提出這樣的建議極具挑戰性,我們花了很多時間尋找方法來規避這樣的建議措施。“CSIS的人工智能政策專家艾倫説,他認可開源人工智能讓政策制定者更難掌控風險的觀點。但他表示,任何取締超過一定規模的模型開源的提議,都需要考慮到美國法律的適用範圍有限這一事實。“他説:“這是否意味着開源社區將遷往歐洲?鑑於世界之大,你必須考慮到這一點。”
報告作者説,很多網民都已經學會了如何跨越AI系統設置的安全防護欄獲使用更多存在爭議性的功能。埃杜阿德説:“發佈開源模型始終會面臨風險,但開源作為一種趨勢已經不可逆轉,我們能做的只有承擔風險”
該報告的第三位合著者、前國防部官員比厄爾後來離開了格萊斯頓,創辦了一個旨在支持人工智能政策的超級政治行動委員會。該政治行動委員會名為“美國人支持人工智能安全”(AmericansforAISafety),於本週一正式成立。該組織在給《時代》週刊的一份聲明中説,它的目標是使人工智能安全和安保成為“2024年美國大選中的一個關鍵問題,目標是在2024年底之前通過人工智能安全立法”。PAC沒有透露其融資信息,但表示“已經設定了籌集數百萬美元以完成使命的目標”。
在與Beall共同創辦Gladstone之前,哈里斯兄弟經營着一家人工智能公司,該公司通過了硅谷著名孵化器YCombinator的審核,當時由OpenAI首席執行官山姆-奧特曼(SamAltman)掌舵。這對兄弟將這作為他們以行業利益為重的證據,儘管他們的建議一旦實施,將顛覆整個AI產業。“傑雷米告訴《時代》週刊:“快速行動,打破常規,這是我們的人生信條。我們就是在這種理念的薰陶下成長起來的。”但他説,當你的行動可能帶來巨大的負面影響時,這一信條就不再適用了。”他説,“我們現在正在設計的系統正在朝着超級智能的方向前行,某種程度上,這種級別的科技很有可能被武器化,帶來不可估量的影響。不過還有什麼更糟的呢?無非就是某一天,AI突然不受控制,屆時,我們就會全面禁止AI,不再享受這項科技的福利。”
