AI末日情景在硅谷日益受到關注 - 彭博社
Nate Lanxon, Jackie Davalos
有爭議的AI理論家Eliezer Yudkowsky坐在行業最極端評論者的邊緣,認為發展先進人工智能將導致人類物種的滅絕。
“我認為我們還沒有準備好,我認為我們不知道我們在做什麼,我認為我們都會死去,” Yudkowsky在本週的 《彭博原創系列》 AI IRL節目中説。
在過去的二十年裏,Yudkowsky一直在宣傳他的理論,即敵對的人工智能可能引發一場大規模的滅絕事件。當許多AI行業的人對這一評估表示無所謂或揚起眉毛時,他成立了機器智能研究所,並與Peter Thiel等人合作,共同創作了書面作品,與Nick Bostrom等未來學家合作。
説他對世界末日的一些設想不受歡迎是一個嚴重的低估;它們與世界將在2012年末的預言相媲美。這一預測基於對古代文本的可疑解釋,以及缺乏支持性證據。
儘管Yudkowsky的觀點是嚴厲的,但對AI潛在危害的擔憂已在AI社區的最高層獲得了認可,包括一些領先人工智能公司的首席執行官,如OpenAI、Anthropic和 Alphabet Inc.的DeepMind。甚至在過去的八個月裏,生成式AI的迅速崛起已經引發了 對AI系統進行監管的呼籲和暫停先進AI系統的訓練。
在五月份,Sam Altman、Demis Hassabis和Dario Amodei與數百名其他領導者和研究人員一起簽署了一份簡短聲明,由非營利性的AI安全中心發佈,稱“減輕AI帶來的滅絕風險應該成為全球重要議題,與其他社會規模風險(如大流行病和核戰爭)並列”。微軟聯合創始人比爾·蓋茨是簽署者之一,Yudkowsky也是。
一些懷疑論者認為,AI還沒有足夠先進,無法證明它會毀滅人類,而專注於世界末日場景只會分散注意力,而不是關注算法偏見、種族主義以及猖獗的虛假信息傳播所帶來的風險。
“這種談論是危險的,因為它已經成為討論的主導部分,” AI初創公司Hugging Face的研究科學家Sasha Luccioni在一次採訪中説道。“那些火上澆油的公司正在利用這一點來逃避責任。如果我們談論的是存在風險,我們就沒有在關注責任。這是一個助長恐慌的迴音室,真正的風險是它導致專注於滅絕場景的監管,而不是解決具體的、當下的危害。”
觀看:AI是下一個Y2K嗎?
這也是一個歷史趨勢的延續,即轉型技術引發對健康和人類風險的恐懼、不確定性和懷疑。在2000年之前,社會對所謂的千年蟲產生了昂貴的集體恐慌。實際上,Y2K狂熱是一種善意的準備,激勵全球各地的系統管理員檢查問題,以防萬一。
最近,第五代移動網絡的普及引起了一些人的憤怒,他們認為通信、智能建築和聯網車輛的好處承諾遠遠被來自5G塔的電磁輻射引起的未經證實的健康風險所壓倒。
但即使Yudkowsky的一些盟友並不完全相信他對人工智能末日的定期預測,他們認為他的動機是利他的,儘管他言過其實,但還是值得傾聽。