觀點 | 由人工智能引發的核戰爭聽起來像科幻小説,但事實並非如此 | 南華早報
Sundeep Waslekar
我們正忽視地平線上的一道幽靈。那是人工智能(AI)引發全球核戰爭的幽靈。聯合國秘書長古特雷斯已對此發出警告,但迄今為止擁核國家始終迴避討論這一毀滅性威脅。他們辯稱,五大核強國對"人在迴路"原則存在非正式共識。五國均表示未在核發射指揮系統中部署AI。這雖屬實,卻具有誤導性。
這些國家將AI用於威脅識別與目標選擇。AI驅動系統即時分析來自傳感器、衞星和雷達的海量數據,評估來襲導彈攻擊並推薦應對方案。操作人員需交叉驗證不同來源的威脅信息,決定攔截敵方導彈或發動報復性打擊。當前人類操作員的決策窗口為10至15分鐘,到2030年將縮短至5至7分鐘。即便最終由人類決策,其判斷也將受AI預測分析與建議的左右。最早到2030年代,AI或將成為導彈發射決策的幕後推手。
最早到2030年代,AI或將成為導彈發射決策的幕後推手。圖片來源:路透社
問題在於人工智能容易出錯。威脅檢測算法可能會誤報不存在的導彈襲擊,原因可能是計算機故障、網絡入侵或環境因素干擾信號。如果人類操作員未能在兩三分鐘內通過其他渠道確認這是誤報,就可能啓動報復性打擊。眾所周知,AI在犯罪預測、人臉識別和癌症預後等民用領域的誤差率約為10%。在核預警系統中,這一比例可能降至5%左右。隨着圖像識別算法在未來十年精度提升,誤差率或降至1-2%。但即便是1%的誤差,也可能引發全球核戰爭。
未來兩三年隨着新型自主惡意軟件出現,這種風險將加劇。這類惡意軟件能繞過威脅檢測系統,自適應規避偵測,自主識別目標並實施攻擊。
冷戰期間曾多次出現千鈞一髮時刻。1983年,蘇聯衞星誤判美國發射了五枚導彈,塞普霍夫-15指揮中心的斯坦尼斯拉夫·彼得羅夫軍官判定為誤報,未向上級報告——後者本可能發動反擊。1995年,奧列涅戈爾斯克雷達站偵測到挪威沿海的"導彈襲擊",俄羅斯戰略部隊進入高度戒備,時任總統葉利欽拿到了核手提箱。他懷疑是系統誤判而未按下按鈕,後證實是科研火箭。若當時由AI決定應對措施,後果不堪設想。
朝鮮官方媒體稱,1月試射的是一種新型高超音速導彈系統。照片:朝中社通過KNS/法新社發佈
目前,高超音速導彈仍採用常規自動化技術而非人工智能。其飛行速度可達5至25馬赫,能規避雷達探測並機動調整航跡。各軍事強國正計劃為高超音速導彈加裝人工智能系統,以實現對移動目標的自主定位與即時摧毀,將殺傷決策權從人類移交給機器。