人工智能安全:讓機器人成為你的同事,而非霸主 - 彭博社
Catherine Thorbecke
與超級智能機器共存的路徑探討
攝影師:adventtr/iStockphoto/Getty Images
關於人工智能風險的認知存在兩種流派:一種是《終結者》式的末日論調,認為人類終將臣服於機器人統治;另一種則認為即便無法成為朋友,機器也能成為重要夥伴。一位日本科技研究者提出,全球AI安全策略的關鍵在於重構框架,以實現這種人機良性協作。
2023年ChatGPT橫空出世震撼世界之際,硅谷接連發出兩輪關於強大AI工具帶來生存威脅的警告。埃隆·馬斯克聯合多位專家和行業領袖呼籲暫停六個月開發高級系統,直至找到風險管理方案。隨後包括OpenAI山姆·奧爾特曼和Alphabet旗下DeepMind德米斯·哈薩比斯在內的數百位AI領軍人物聯署聲明警示:“降低AI滅絕風險應與應對疫情、核戰等社會級威脅並列全球優先事項”。
彭博社觀點最高法院在跨性別醫療問題上選擇捷徑NCAA不應享有反壟斷豁免權美國正讓世界變得更加危險黑人男性轉向共和黨的趨勢可能並非曇花一現儘管人們高度關注潛在的災難性風險,但近年來"加速主義者"的聲音完全蓋過了末日論者。企業和國家爭相成為首個實現超人類AI的實體,對早期強調安全優先的呼籲置若罔聞。這一切都讓公眾感到極度困惑。
但或許我們的認知存在根本偏差。東京大學著名AI學者山川宏(研究該領域三十載)提出新觀點:實現可持續發展的最可行路徑是讓人類與AI"共生共榮,守護彼此福祉,規避災難性風險"。
好一個理想願景。
山川的論述引發強烈共鳴——他在承認2023年警示的同時,為與超級智能機器共存提供了可行方案,尤其是在當前無人因恐懼落後而停止研發的背景下。換言之,若無法阻止AI超越人類,不如以平等夥伴身份與之同行。而"平等"正是敏感所在:人類始終希望保持優越性,而非與機器平起平坐。
該聲明在日本學界引發熱議,目前已獲數十位學者聯署,包括海外有影響力的AI安全研究者。山川接受《日經亞洲》採訪時指出,亞洲文化更易將機器視為夥伴而非威脅。相較於美國創造終結者這類AI形象,日本孕育了鐵臂阿童木和哆啦A夢等友好夥伴。
除了流行文化,這種文化接納背後也有其真實依據。根據益普索去年六月的一項全球調查,僅有25%的日本受訪者表示使用AI的產品會讓他們感到不安,這一比例是所有國家中最低的,而美國人的比例高達64%。
然而,他的言論很可能會像許多其他關於AI風險的警告一樣被置若罔聞。技術的發展有其自身的慣性。至於機器是否真的會發展到引發"文明滅絕"的地步,這仍然是一個極具爭議的話題。可以説,行業對遙遠科幻場景的部分關注,其實是為了轉移人們對技術可能帶來的更直接危害的注意力——無論是就業替代、版權侵權指控,還是對氣候變化目標的背棄。
儘管如此,山川的提議為近年來停滯不前的AI安全辯論提供了一個及時的重新討論機會。這些討論不能僅僅依賴於聳人聽聞的警告和缺乏治理的現狀。除了歐洲,大多數司法管轄區都專注於放寬監管,以免落後。政策制定者不能等到為時已晚才採取行動。
這也表明,除了試圖創造和銷售這些產品的公司外,還需要進行更多的安全研究,就像社交媒體時代一樣。這些平台顯然缺乏動力向公眾分享他們的發現。政府和大學必須優先考慮對大規模人工智能風險進行獨立分析。
與此同時,儘管全球科技行業正忙於創造比人類更聰明的計算機系統,但我們是否能實現這一目標尚未可知。然而,將神級人工智能設定為目標已經引發了許多適得其反的恐慌。
將這些機器視為同事而非主宰者或許更有意義。
更多來自彭博觀點的內容:
- 英偉達的“主權”人工智能目標與現實不符:Lionel Laurent
- TikTok過於輕易地重塑了飲食失調:Karl & Jarvis
- 加密貨幣兄弟與貿易一樣構成風險:Andy Mukherjee
想要更多彭博觀點? OPIN <GO> 。或者您可以訂閲 我們的每日通訊 。