國際原子能機構(IAEA)模式用於人工智能?該模式已然失敗——《華爾街日報》
Mike Watson
多年來僅侷限於學術討論和技術會議熱議的人工智能問題,終於引起了公眾的關注。ChatGPT、Dall-E 2等新程序證明,計算機能夠生成與人類創作極為相似的句子和圖像。
人工智能研究人員正在敲響警鐘。今年三月,該領域的一些領軍人物與埃隆·馬斯克、史蒂夫·沃茲尼亞克等科技先驅聯名呼籲暫停人工智能實驗六個月,理由是"先進AI可能意味着地球生命史上的深刻變革,應當以相應的謹慎和資源進行規劃管理"。上月,開發ChatGPT的OpenAI領導層提出需要"類似國際原子能機構的超級智能監管組織",該機構將"檢查系統、要求審計、測試安全標準合規性、對部署程度和安全等級實施限制等"。若危言聳聽者對AI風險的預言成真,而人類試圖用原子能機構式方案應對,那麼我們早已註定失敗。
在關於AI風險的討論中,核能類比屢見不鮮。曾呼籲國會監管AI的OpenAI首席執行官薩姆·奧爾特曼談及公司時,常提及曼哈頓計劃。以審慎著稱的亨利·基辛格也表示:“AI的影響可能堪比核武器問世——但其不可預測性更甚。”
國際原子能機構(IAEA)模式對許多關注AI發展的人士具有吸引力,因為其目標與他們的訴求高度契合。該機構致力於促進核能和平利用,同時防止核武器擴散。許多AI研究人員同樣希望自己的發明能促進人類繁榮,而非助長破壞力。
遺憾的是,核武管控的技術手段難以直接套用於計算機程序。核武器需要反應堆、濃縮設施等龐大基礎設施支撐,而AI的物理足跡要小得多。OpenAI團隊認為計算資源和能源消耗的追蹤可能成為監管合規性的重要突破口。
但這仍存在不足。正如OpenAI團隊承認的,“確保超級智能安全的技術能力"仍是"待解的研究課題”。缺乏明確標準,合規性評估便無從談起。
IAEA的核心缺陷不在於監測而在於執行。1957年該機構成立時全球僅美、蘇、英三個核國家,在其監管下這個數字卻增長了兩倍。
冷戰期間的地緣政治對抗導致核擴散:法國、中國、印度相繼試爆核裝置,以色列秘密研發核武。儘管美蘇試圖限制核武器,但都不願因阻止盟友擁核而削弱陣營實力。
即便在蘇聯解體後,IAEA防擴散使命仍遭遇挫敗。巴基斯坦、朝鮮先後核試驗,伊朗鈾濃縮濃度已接近武器級。以色列雖在伊拉克和敍利亞取得顯著防擴散成果,但通常只有大國才能強制IAEA合規。除伊拉克這個存疑的例外,美國始終認為核擴散的代價低於戰爭風險。
中國日益增長的實力和好戰態度是眾多因素之一,這些因素將使國際人工智能管控機制面臨挑戰。中國一直是核擴散最肆無忌憚的國家之一,很可能在武器化人工智能領域不斷突破界限——因為相比中國軍方高層,人工智能發動政變或違抗命令的可能性更低,且北京將能控制那些依賴中國開發人工智能的國際合作夥伴。
但即便是友好的民主國家也會對人工智能限制感到不滿。計算技術將釋放巨大經濟效益,其中許多發明都將具有軍事應用價值。美軍必將使用人工智能,雖然美國大多數盟友和夥伴願意受其核保護傘庇護,但如果華盛頓實施雙重標準,他們也不太可能自斷經濟增長之路。
具有諷刺意味的是,OpenAI希望效仿國際原子能機構模式,而此刻核不擴散的前景正變得日益黯淡。比爾·克林頓對其重大成就之一——1994年《布達佩斯備忘錄》感到遺憾,該備忘錄使烏克蘭放棄了蘇聯時代的核武器。“他們都認為如果烏克蘭仍持有這些武器,俄羅斯絕不敢如此妄為。“他今年四月表示。朝鮮和伊朗的核計劃正迫使美國在亞洲的夥伴和盟友重新評估擁核的必要性。
歸根結底,核不擴散與人工智能風險存在相同弱點:它們都低估了人為因素。
沃森先生是哈德遜研究所自由社會未來中心副主任。
5月16日,塞繆爾·阿爾特曼在華盛頓參議院司法委員會隱私、技術與法律小組委員會作證。圖片來源:Win McNamee/Getty Images刊登於2023年6月2日印刷版,標題為《AI領域的IAEA?該模式已然失敗》。