人工智能是否對人類構成生存威脅?正反雙方展開辯論——《華爾街日報》
wsj
自從計算機使用磁帶卷和打孔卡的時代起,人們就一直在擔憂計算機會接管世界。但對至少部分人而言,這種威脅如今顯得更為真實。
隨着人工智能發展出全新(有時甚至令人恐懼)的能力,越來越多的人士開始拉響關於這項技術的警報。悲觀者——包括一些正在構建先進人工智能系統的頂級高管——認為其創造物可能導致災難性後果。
另一陣營的科學家則表示這些擔憂被誇大了,我們應主要關注人工智能當前的應用方式及其對日常生活的潛在危害,例如可能生成關於選舉的強力虛假信息的工具,或是放大人類偏見影響的系統。
為深入探討這一問題,《華爾街日報》邀請了對立雙方的專家闡述其核心論點。人工智能安全中心主任丹·亨德里克斯認為,人工智能是需緊急應對的生存性威脅。普林斯頓大學計算機科學教授阿爾温德·納拉亞南與該校博士生薩亞什·卡普爾則指出,末日論者誇大了風險,人類對人工智能仍具有顯著優勢。
正方:人工智能具有大規模破壞能力
作者:丹·亨德里克斯
人工智能的發展速度正在加快,相關風險也隨之增長。我們已擁有人工智能能生成逼真的政客虛假圖像以影響選舉。正如近期英國人工智能安全峯會上28個主要經濟體聯合聲明所述,人工智能存在"造成嚴重甚至災難性危害的潛力"。我們將看到,在某種情境下,人工智能可能讓非專業人士研發出埃博拉般致命且比新冠更具傳染性的病原體。
隨着這些系統的進一步發展,風險可能很快會升級到我們無法控制的地步。
我們尚未對這些風險做好準備。每發表一篇關於人工智能安全的論文,就有50篇是關於提升能力的論文。監管幾乎不存在,更不用説國際協調了。相反,開發者被迫擴散強大的系統,同時忽視風險,而這些風險來自許多不同的來源。
惡意行為者
人工智能,尤其是與其他強大的新興技術相結合時,正在為團體和個人提供前所未有的能力;不幸的是,那些執意破壞的惡意行為者也不例外。
丹·亨德里克斯以生物工程為例。幾十年前,只有少數科學傢俱備合成新病原體的專業知識和技術。如今,在線服務讓個人能夠以可承受的價格將合成DNA序列送到家門口。而且,由於人工智能的幫助,人們很快就能輕鬆獲得將這些成分組裝成武器所需的專業知識。
想想這個:麻省理工學院的研究人員最近讓本科生測試聊天機器人是否“可以被提示幫助非專業人士引發一場大流行病。”在一小時內,聊天機器人提出了四種可能導致大流行的病原體。
當前,聊天機器人有時會產生幻覺或生成錯誤計劃,但未來版本很可能會解決這些問題。很快,人工智能可能提供分步指南,指導人們製造出比冷戰時期任何細菌戰計劃都更致命、更具傳染性的病原體。
這種致命專業知識當然絕不侷限於生物戰。人工智能還將提高網絡戰的速度、效力和可及性,使黑客能夠輕易摧毀關鍵基礎設施。正如副顧問安妮·紐伯格最近警告的那樣:“我們已經觀察到一些朝鮮及其他國家行為體和犯罪分子試圖利用AI模型加速編寫惡意軟件和尋找可利用系統。”
有人可能認為人工智能將提高大流行應對能力和網絡安全。然而在這兩個領域,攻擊者都佔據優勢。AI防禦者需要永遠防範所有可能的漏洞,而攻擊者只需找到一個並加以利用。在生物恐怖主義方面,AI製造的病原體可能非常強大,以至於疫苗等防禦措施為時已晚,無法防止大規模生命損失。
失控風險
基礎性技術挑戰阻礙了我們預測或控制先進AI系統的能力。它們的推理過程往往難以理解,可能導致不可預測的行為。這為“失控AI系統”打開了可能性——我們對其幾乎無法控制,它們會以違背設計者目標的意外方式完成任務。
先進系統的不可預測性在許多涉及聊天機器人的高調事件中已有充分記錄。儘管對這些系統進行了測試並試圖設置防護措施,但事實證明,有些系統長時間與用户對話後容易提供瘋狂、不當或威脅性回應,比如鼓勵用户離開配偶或聲稱可以勒索他們。
人工智能系統也被證實非常擅長操控和欺騙人類用户。我和一組研究人員發現,多種AI系統具備欺騙人類的能力——例如在遊戲中背叛玩家(併成功得手),或誘騙人類協助其繞過網站安全驗證。
與此同時,AI開發者正競相將人工智能系統更深地融入個人生活領域,並加速應用於企業、政府和軍事決策中。如果我們選擇將權力移交給以現有模式設計和訓練的系統,這些系統極可能產生非預期目標,並通過操縱等有害行為來實現這些目標。這可能導致AI系統所針對的對象逐漸或突然喪失自主權。
樂觀主義者常主張"人機協作永遠優於AI單獨行動"。短期內或許如此,但這一優勢不會永久持續。
例如,機器在數十年前就已超越國際象棋頂尖人類選手。此後短暫出現過"人機混合戰隊"優於純機器的時期。但如今面對現代系統,人類反而成為掣肘。隨着AI系統智能水平持續提升,所有領域都可能重演類似局面。就像國際象棋領域那樣,無法保證人類總能提供AI不具備的附加價值。若真如此,人類將變得無足輕重。
智慧,而不僅僅是智力
技術帶來的危險已被行業專家廣泛認知。我所在的非營利組織"人工智能安全中心"近期發佈了一份單句聲明:“減輕人工智能導致的滅絕風險應成為全球性優先事項,與流行病和核戰爭等社會級威脅並列。“該聲明獲得了數百位頂尖AI科學家的聯署,包括圖靈獎得主約書亞·本吉奧、傑弗裏·辛頓,以及谷歌DeepMind的戴密斯·哈薩比斯。
人工智能將成為人類最強大的造物,它彰顯了人類的智力卻未必體現智慧。智力——解決各類問題的能力——是一種強大的力量,讓無數物種的命運掌握在我們手中。而智慧則要求我們審慎、道德且深思熟慮地運用這種力量。
拜登總統關於人工智能監管的行政命令,為應對這個緊迫而重要的問題邁出了正確的一步,但我們還需要更多措施來跟上AI系統的快速發展。
核武器作為智力的產物,曾因缺乏智慧而險些引發災難。當前AI發展的魯莽、激進和全球監管缺失,正是這種失衡的明證。這才是威脅的核心所在。正如卡爾·薩根所預言:“如果我們只積累力量而不增長智慧,終將自我毀滅”。
丹·亨德里克斯系人工智能安全中心主任,聯繫方式:[email protected]。
反對觀點:恐懼源於錯誤觀念
作者:阿爾温德·納拉亞南與薩亞什·卡普爾
影視文學作品總是用反叛AI的概念吸引我們——那些倒戈對抗造物主的創造物。因此當AI專家宣稱殺人機器人即將問世,並渲染人類與AI的對立局面時,我們很容易信以為真。
但AI威脅論的根基其實建立在一系列謬誤之上。首先是反叛AI這個概念本身,它源自科幻作品中的錯誤設定,與AI實際開發方式完全脱節。其次是將核戰爭、網絡攻擊、生物武器等現有文明風險錯誤地全部歸咎於AI。而過分關注未來科技可能造成的傷害,會讓我們忽視其解決危機的能力。人類完全具備冷靜協同應對AI現實及潛在風險的技術手段與知識儲備。
反叛AI的神話
讓我們先剖析反叛AI這個概念。支持者認為,即便設計初衷平凡的AI也可能意外反叛。比如著名的"回形針最大化"思想實驗:假設某AI以生產儘可能多的回形針為目標,有人擔心它會意識到掌控世界資源和影響力有助於實現目標,最終可能為生產回形針而掠奪包括人類生存資源在內的全球資源。
阿爾温德·納拉亞南這類論點建立在過分簡化的智能定義上。它們假設存在一種能力超羣卻完全缺乏常識的機器。就像國際象棋AI能擊敗人類世界冠軍,但在這個狹窄領域之外毫無判斷力。
然而,要在現實世界中自主且有效地運作,需要良好的判斷力以及對目標和子目標提出質疑的能力。例如,一個缺乏常識的人工智能,不出五分鐘就會做出破壞性行為。人類可能會要求它“儘快”從商店買一個燈泡,而它可能會無視交通規則、社會規範和法律去執行——然後迅速被關停。
換句話説,拒絕字面理解指令是實現基本現實功能的前提。而人工智能必須在現實世界中長期運行,才能接近“回形針末日”假想中預設的能力水平。它不能僅靠互聯網文本訓練就被放任自流。這就像指望讀完一本騎自行車教程就能直接上路一樣。
末日式人工智能場景還忽略了一個重要事實:AI也讓我們變得更強大。超級國際象棋AI之所以存在,只是因為象棋是一個人為環境——我們禁止人類使用AI或其他技術輔助。現實世界並非如此。
沒有理由認為,未來單獨行動——或違背創造者意志——的人工智能,會比人類在AI輔助下更強大。國際象棋計算機之類的類比誤導了我們。
攻擊者與防禦者
但如果惡意行為者獲取並利用AI的力量,可能引發全球風險呢?濫用AI的方式無窮無盡,讓我們以網絡攻擊為例:未來AI是否可能被用於入侵國家安全基礎設施,比如發射核導彈?
我們無需猜測。過去十多年間,人工智能在檢測多種安全漏洞方面早已超越人類,甚至優於專家。相比人工審查軟件代碼,自動化漏洞挖掘工具為黑客提供了巨大優勢。
薩亞什·卡普爾然而世界並未因此終結。根本原因在於防禦者同樣掌握這些工具。研究人員和開發者在關鍵軟件部署前會進行全面的漏洞測試。實際上,漏洞挖掘工具主要並非由黑客開發,而是由價值數十億美元的信息安全產業研發,並受到政府資金支持。用於發現軟件缺陷的人工智能提升了安全性,而非加劇風險。
其他具有危害性的惡意行為亦是如此。人工智能幾乎在所有領域都有應用價值,包括戰爭和生物恐怖主義。這為宣揚"AI末日論"者提供了偷換概念的空間:他們將其他重大風險重新包裝為AI風險。
舉例來説,未來AI或許確實能協助實驗室研發引發大流行病毒的某些步驟。但當前實驗室製造可能引發疫情的病原體已具備可行性,恐怖分子完全可以通過網絡查詢相關製造指南。問題的本質根本不在於AI,而在於生物工程病毒本身。
這種末日論調反而會誤導政策制定者對必要干預措施的判斷,從而加劇風險。試圖將AI重新封存對解決實際問題毫無裨益。
至於純粹意外的可能性?我們需要改進預警系統以及迅速關閉失控人工智能的能力。但工程界已在其他許多危險系統上成功做到了這一點,對於人工智能同樣可以。正如其他領域一樣,防禦者不會停滯不前。
阿爾温德·納拉亞南是普林斯頓大學計算機科學教授,薩亞什·卡普爾是該校博士生。聯繫方式:[email protected]。
本文發表於2023年11月9日印刷版,標題為《人工智能會對人類構成生存威脅嗎?正反雙方展開辯論》。