珠海航展後中美一致同意:不把核武器交給人工智能,確保人類控制_風聞
光电科技君-1小时前
這次珠海航展讓全球看到無人化、智能化的未來,無論是戰爭形態還是戰爭規模都已經發生了實質性變化。其實,作為世界大國,也一直在討論關於人工智能與武器之間的關係,只不過一直沒能達成一致。
最近,美國總統國家安全事務助理傑克·沙利文就表示,中美高層一致同意“在人工智能(AI)不斷進步的情況下,保留人類對使用核武器決定的控制權很重要。”
説白了,就是中美都同意管控人工智能的安全和風險,決定不把核武器的控制交給人工智能。這是中美這幾年在防務和核平衡方面達成的一致意見。
此前,中方一直倡導“科技向善”,要規範人工智能,確保人工智能始終在人類控制之下,防止出現機器自主殺人。也要防止人工智能只被少數先進的國家掌握。
人工智能的軍事應用正在顛覆傳統戰爭形態,以色列利用人工智能算法和遠程操控在加沙和黎巴嫩實施精準襲擊,造成了大量的破壞和平民傷亡,這其實會讓整個人類面臨的挑戰。
在中美的示範性承諾下,法國和英國也做出了同樣的承諾,即人類對核武器擁有完全控制權。勢必也會影響到全球關於禁止人工智能技術用於無人機等自主武器以及核武器的控制和部署的行動。
可能有人説,明明諸如“機器狼”、“蜂羣無人機”等裝備,如果加入人工智能戰鬥力都不敢想象,為什麼關鍵時候,中美能達成一致呢?
其實道理很簡單,就是美國最早在人工智能與武器方面進行了結合,並且還在持續加大投入研發更多的人工智能戰場應用模式。美國甚至還想通過技術封鎖、芯片管控等方式限制其他國家發展。
但是隨着我們也能自主設計和製造先進的人工智能芯片,開發相應的應用產品,並且在一定程度上超過美國,他們才開始坐下來談論這個問題。美國也開始明白,如果不進行管控,勢必引起全球性的人工智能武器競賽,增加更多的不確定性。
而我們也明白,人工智能向善,才能更好地服務人類。谷歌公司就是比較早為美軍及以色列研發人工智能武器的公司,但是因為沒有相關的道德底線和倫理標準,一旦失控就會引發難以估計的損失。所以這幾年就連谷歌的工程師也反對從事這些項目。
中方一直堅持以卓越的智慧和“人類命運共同體”的理念,呼籲各國共同簽署《未來契約》,其實就是以負責任的態度踐行國際責任,確保科技服務於人類整體利益,而不是被少數國家控制,變成了霸權主義的維護工具。
《人類簡史》《未來簡史》《今日簡史》的作者尤瓦爾·赫拉利曾經在演講中表示:人類正面臨的生態危機,而人工智能無論好壞都是這場危機的一部分。
在他看來,人工智能可以消化掉整個人類文化,消化掉那些我們幾千年來創造出來的所有東西,也包括人類自己。也許這也是所有人最擔心的吧。