人工智能構成國家安全威脅——《華爾街日報》
Klon Kitchen
人工智能對美國國家安全構成威脅,拜登政府對此高度重視。10月30日,總統簽署了一項涵蓋範圍廣泛的行政命令,要求國內大部分人工智能企業必須檢測其模型是否存在國家安全漏洞及潛在濫用風險。這意味着需要成立由專家組成的"紅隊",試圖讓人工智能執行危險行為——進而設計防範外部類似威脅的方案。
這絕非簡單的官僚程序,而是新時代責任意識的嘹亮號角。該行政命令將"兩用人工智能"定義為:任何"基於廣泛數據訓練、通常採用自我監督學習、包含至少數百億參數、適用於多場景,且當前表現或經簡單修改即可在威脅安全、國家經濟安全、公共衞生安全或綜合風險領域展現高性能"的模型。
根據這一定義,人工智能監管不再侷限於國防或情報應用,而是覆蓋各類人工智能產品與服務。這意味着涉足AI領域的企業必須預先推演潛在濫用場景。政府實質上已宣告:無論情願與否,人工智能產業都已成為國家安全體系的重要組成部分。
這不僅僅是防止聊天機器人回答諸如“如何製造炸彈?”這類危險問題。隨着大語言模型和其他新興人工智能技術在經濟和公共生活的各個領域投入使用,企業必須預先識別的風險將發生巨大變化。
以一家部署大語言AI模型管理其專有業務和研究數據的化工公司為例。該公司必須評估心懷不滿的員工濫用該AI製造化學武器——或更可能的是將操作指南發佈到網上的可能性。但公司還需識別聲譽風險:如果黑客入侵企業AI並利用它實施其他非法行為,後果會如何?這對公司聲譽和股價將是災難性的。
問題的核心在於風險管理而非風險消除。人工智能與國家安全形勢不斷變化,防範濫用必須成為持續進行的企業核心責任。關於AI的行政命令將企業置於美國政府國家安全、外交政策、經濟繁榮和國內穩定考量的中心位置。雖無法做到萬無一失,但必須通過嚴謹審慎的努力來降低風險。
沒有企業能獨自應對。威脅範圍太廣、複雜性太高,任何單一公司都難以招架。商業領袖必須組建能結合內部能力與外部專業知識的優化團隊,與政府機構及其他利益相關方合作勢在必行。
開發人工智能的企業必須立即成立專門部門來測試其產品。該部門應具備跨學科性質,不僅包括技術專家,還需涵蓋倫理、法律及國家安全領域的專業人士。團隊職責必須明確:對企業AI模型進行漏洞檢測、壓力測試和潛在濫用挑戰。企業應主動與政府機構及行業夥伴展開對話,分享最佳實踐與洞見。這一新範式要求採取協作透明的應對方式。鑑於風險過高,行政命令不容忽視,政府已明確表示不會容忍任何懈怠行為。
風險測試並不能保證AI模型永遠不會引發或加劇國家安全災難。但忽視風險測試無異於對災難敞開大門。那些無視這一呼籲的企業,不僅是在拿自身前途冒險,更是在輕率地玩弄國家安全。
基欽先生是Beacon Global Strategies董事總經理,美國企業研究所非常駐高級研究員,曾任職於中央情報局、國防情報局及國家反恐中心。
拜登總統10月30日在白宮簽署關於人工智能的行政命令。圖片來源:Chip Somodevilla/Getty Images