馬斯克等AI技術領袖要求聯合國禁止“殺人機器人”研發
“殺人機器人”,似乎已被公認是下一輪軍用技術的制高點。全球中美俄英法韓等主要軍事大國,紛紛加大研發投入,爭相打造無需人類駕駛員、操縱者的“鋼鐵雄師”。但同時,這引發的倫理爭議與安全擔憂日漸升温。一批機器人和AI領域的專家、企業家以及技術領袖,正呼籲聯合國禁止“殺人機器人”的開發和使用。

圖源:雷鋒網
據雷鋒網8月21日消息,今日,來自26個國家的116名專家,由馬斯克和DeepMind聯合創始人Mustafa Suleyman領頭,發佈公開信正號召全面禁止自主武器。

Elon Musk 圖源:雷鋒網

Mustafa Suleyman 圖源:雷鋒網
聯合國最近已投票通過開啓對此類軍用武器的正式討論,這包括自主化的無人機、坦克、機關槍。馬斯克等這批人已向聯合國提交一份公開信——希望在此時,即正式討論開始前進行呼籲,推動聯合國制定決議制止這波全球已經開啓的“殺人機器人”軍備競賽。
在公開信中,這批技術領袖們對將主持該討論的聯合國常規武器會議警告稱,這輪軍備競賽極有可能導致“人類戰爭形式發生第三次革命”,前兩次分別由火藥和核武器引發。他們寫道:
“一旦研發出來,致命自主武器將使未來戰爭擴大到前所未有的規模,戰爭進展的速度也將超過人類對時間的理解。這類武器很有可能成為恐怖的代名詞,獨裁者、恐怖分子能把它們用到無辜平民上,也有可能被黑客利用,讓自主武器做出我們不希望看到的行為。
留給我們做出行動的時間並不多。一旦這個潘多拉魔盒開啓,關上就難了。”
此前,AI專家曾警告,以現在的人工智能技術和發展速度,部署全自主武器將在幾年內變得可行。雖然,AI武器能讓戰場對軍隊服役人員來説變得更安全——更多人不需要上前線;但專家們擔心能自主行動的進攻性武器,將極大降低戰爭的門檻,導致更大量的人類傷亡。
該公開信在今天IJCAI的開幕致辭上公佈,得到了機器人以及AI領袖不少知名專家學者的支持。公開信全文以及署名者名單見此。他們強調做出緊急行動的重要性,尤其聯合國把討論該問題的會議時間推遲到了今年11月,原計劃是今天。
雷鋒網瞭解到,這批聯合署名公開信的專家,呼籲把“在道德倫理上站不住腳”的致命自主武器系統,加入聯合國自1983年生效的特殊常規武器大會(CCW)武器禁用名錄。後者包括化學武器以及蓄意以致盲為目的的激光武器。
新南威爾士大學人工智能教授Toby Walsh對此表示:
“幾乎所有技術都有兩面性,AI同樣如此。
它能幫助我們解決許多當前面臨的社會問題:不平等、貧困、氣候變化帶來的挑戰以及仍未消退的全球金融危機。但是,同樣的技術也能用到自主武器上,讓戰爭(進一步)工業化。
我們需要在今天做出決定,到底什麼樣的未來才是我們想要的。”
大家很熟悉的馬斯克是該領域的活躍人物。他很早就對前瞻性的AI政策立法進行了多次呼籲,把人工智能説成是人類的頭號生存威脅。馬斯克的説法造成很大爭議,不少頂級學者以及意見領袖表達了不同觀點,包括Ray Kurzweil與扎克伯格。不少公眾可能認可AI對人類社會有很大破壞潛力這一説法,但同時認為真正造成“破壞”還離得遠。
Clearpath Robotics創始人Ryan Gariepy表示:
“與其它科幻小説裏的AI潛在應用不一樣,自主武器系統研發正處在一個拐點,它對無辜平民造成殺傷的威脅非常現實,也有可能造成全球不穩定。”
AI頂會IJCAI被專家們用作討論致命自主武器系統的論壇,已經不是第一次了。雷鋒網曾報道,兩年前,包括馬斯克和霍金在內的數千名AI、機器人專家以及行業領袖在該大會上簽署了另一封公開信,呼籲與今天相似的武器禁令。這推動了聯合國對致命自主武器開啓正式討論。
核武器的威脅還未解決,人類又將面臨另一個自己製造出來的生存威脅。
(作者:三川 本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。)