人類才可怕!各種AI噱頭不過是危言聳聽!《碟7》超級AI現實可能更加兇險?_風聞
大眼联盟-07-26 00:07

AI威脅人類尚且還早,使用AI的人類相互對抗,才是正在加劇的威脅。
在深海里,一艘俄羅斯的潛艇疑似遭到未知魚雷的攻擊,船長下令發射魚雷作回應。過一會兒敵方潛艇突然消失在雷達裏。眾人以為是儀器出了點故障,鬆了口氣,不料剛才發出的魚雷竟然自己拐了彎,將這艘潛艇炸個粉碎。
這是好萊塢新片《碟中諜7》的第一幕。與以往不同,炸燬潛艇的反派是名叫“智體”的超級AI,它無處不在,可以瞬間清除實時視頻,冒充任何人的聲音,破解人的身份安全碼(甚至是指紋碼),輕鬆入侵全世界的賽博空間。
只有一把金屬鑰匙可以關閉智體。為了爭奪鑰匙,阿湯哥飾演的主角伊森與智體及其黨羽展開殊死搏鬥。
而在戲外,本月,好萊塢的演員和編劇爆發了一場浩大的罷工示威。這場罷工的一大原因就是,生成式AI給影視圈帶來的威脅。演員擔憂AI創建的數字替身終有一天會取代自己,編劇則拒絕可能到來的現實:AI寫劇本初稿,他們來潤色修改。
阿湯哥也公開支持好萊塢對AI的抵制,向製片商喊話,不要忽視演員對AI的擔憂。
AI技術的進步是這個時代無法迴避的話題。換個角度想,《碟中諜7》人與AI的對抗,像是好萊塢反抗人工智能的一個隱喻。
人們的恐懼使AI的能力被誇大
《碟中諜7》導演克里斯托弗·麥奎裏認為,我們當下的時代精神就是技術帶來的焦慮,技術如何影響人們的生活。他説,AI很像冷戰時期的核彈,不用強調,每個人都感受到了。
這個故事巧妙地迎合了今天一部人的情緒:對日益進步的AI的恐懼和擔憂。不過,現在AI還遠無法達到這種智能程度。
在電影中,智體可能是男主角面對的最可怕的敵人,因為它已經進化到具備自我意識,能預測人類的每一步行動,因此幾乎把伊森和他的團隊逼入絕境。
令人恐懼的另一個因素是,人類無法知道智體想要什麼,它的動機始終處在神秘之中。也許下一部電影將解答這個疑問。但在現實中,AI本身就是一個巨大的黑箱,沒有人有信心解釋到底發生了什麼。
早在ChatGPT在全球爆紅時,至少有一部分人堅信,生成式AI將造成人類生存威脅。恐懼建立在未知上,但事實是,生成式AI目前仍處在早期階段,它的能力被誇大了。
人工智能有可能獲得自我意識,甚至擁有慾望和貪婪嗎?牛津大學教授桑德拉·瓦赫特否認了這一點,他在接受英國媒體Evening Standard採訪時稱,大眾混淆了生成式AI和AGI(通用人工智能),“沒有證據表示我們正在往AGI發展,甚至這條路存不存在都不好説。”
智體可以隨時刪掉監控裏的部分畫面,甚至侵入AR眼鏡,冒充人類的聲音。據英國媒體Evening Standard報道,IT安全公司F-Secure的專家勞拉·康卡拉説,抹去監控錄像畫面理論上是可行的,但要想做到實時刪除,背後需要的計算資源是巨大的,至少現在還辦不到。
至於影片開頭的潛艇事件,網絡安全公司Dargtrace的專家託比·劉易斯則表示,AI可能趁潛艇在港口停靠時,或者浮出水面時,通過潛艇的通信渠道進入。
另一個專家詹姆斯反對這個設想,他告訴Evening Standard,軍用潛艇為了隱藏位置,和總部之間的通信渠道會受到嚴格限制。AI試圖從通信渠道進入,攻擊軍用計算機系統,污染潛艇的聲納系統,不太可能會發生。“但這是個很棒的電影故事情節。”
儘管如此,出於對AI失控的擔憂,越來越多人開始呼籲對其進行監管和限制。早在今年3月,馬斯克和一系列硅谷名流及科學家共同簽署了一封聯名信,呼籲各方暫停開發生成式AI六個月。這封聯名信徵集了超過33000個人的簽名。
他們的擔憂有一定道理,畢竟科技進步的速度可能超乎常人想象。一些看似遙遠的技術已經變成現實,比如電影裏主角常用的指紋識別、無人機設備以及AR眼鏡等等。
AI武器化將不可避免
智體失控,本是一場不必要的災難,然而整部電影中,只有阿湯哥想徹底摧毀它。編劇借一個角色的台詞説出真相:不是要消滅它,而是要控制它。
公平地説,AI威脅人類尚且還早,使用AI的人類相互對抗,才是正在加劇的威脅。換句話説,人工智能已經不可避免地涉足到國防軍事領域,甚至被運用在現代戰爭裏。
AI技術將使戰爭可能減少人員傷亡。搭載AI的無人機可以在複雜環境中導航,並以巨大的精度進行偵查,對目標發起精準打擊。這種“斬首行動”也極具威懾力。據報道,美國國防部正在研發能駕駛戰鬥機的AI機器人。一位軍方顧問道格拉斯·肖説:“在未來,無人機的數量將遠超武裝部隊的人數。”
AI系統將改變戰爭決策。AI提供的情報分析,使決策窗口從幾天或幾小時,縮短到幾分鐘。斯坦福大學教授赫伯特·林接受《紐約時報》採訪時説,因為AI的運算速度遠超過人類,領導層可能過度依賴AI的情報。那麼,萬一AI給出虛假情報,甚至做出錯誤決策呢?
這並非沒有先例。早在伊拉克戰爭期間,美軍的導彈系統就曾擊落過友軍戰鬥機,事後證明是系統的自主操作。
2020年中東戰場,被稱為“遊蕩彈藥”的無人機不需要人類的遠程操作,就能自主巡邏。無人機內置炸藥,自動識別地面目標,然後俯衝過去轟炸。AI自動殺人已經成為現實。如果AI將平民誤認為恐怖分子,將醫院誤認為軍事基地,後果不堪設想。
為了避免這類悲劇,今年一月,美國國防部在關於使用AI武器系統的指令中規定,開發和部署AI武器系統必須至少有人為判斷。
反對AI武器的大有人在。年滿100歲的基辛格剛出生時,人類的戰爭還需要用到馬匹,現在這位美國前國務卿在思考AI戰爭,他呼籲道,國際社會應該暫停軍事化AI的發展,“是時候用新的國際法來規範這些技術”。
但是,暫停的可能性微乎其微,當前緊張的國際局勢裏,人工智能軍備競賽不可能徹底結束。
五角大樓官員約翰·謝爾曼公開表示,“如果我們停下來,海外的潛在對手不會停下來。我們必須繼續前進。”
著名導演卡梅隆也有類似的擔憂。上週,卡梅隆接受媒體採訪時警告道:“我認為人工智能的武器化是最大的危險,我覺得我們會陷入一場類似核軍備競賽的人工智能競賽,如果我們不去開發它,其他人肯定會去開發它,然後就會升級。”
目前來看,各國能做的,就是呼籲一下,採取些限制措施,比如“負責任地部署與使用人工智能”;對核武器的所有方面進行嚴格的“人為控制與參與”,不把發射權交給計算機;在軍事AI的每個階段進行嚴格的人為監督、測試和驗證;AI系統應該從一開始就明確其任務,並且可以被關閉。
7月18日,聯合國安理會首次就AI威脅國際和平與穩定,召開會議。秘書長安東尼奧·古特雷斯説,聯合國必須在2026年前達成一項具有法律效力的協議,禁止在自動武器中使用人工智能。
説實話,沒有人真正知道更新更強大的AI技術在軍事領域能做什麼。風險與日俱增。僅有的一點好消息是,在探索AI軍事應用時,大國可能都會更加小心翼翼,這可不是玩笑。
來源**|**智能湧現(ID:AIEmergence)