AI安全已死,舒默面臨風險 - 彭博社
Tyler Cowen
當涉及到人工智能時,他們實際上是在説有道理。
攝影師:Graeme Sloan/Bloomberg
混亂。
攝影師:David Ramos/Getty Images Europe2024年5月將被銘記為AI安全運動消亡的月份。也將被銘記為實際上開始認真使人工智能更安全的時刻。
一些歷史:在2000年代中期,一個被稱為“有效利他主義”的運動將AI安全作為首要任務,基於擔心高度先進的AI模型可能會消滅我們所有人,或至少會引起重大的全球混亂。兩家領先的AI公司,Anthropic和OpenAI,建立了複雜的董事會結構,其中混合了非營利元素,以防止這些公司生產危險系統。
Bloomberg觀點英國擁有價值50億美元的比特幣儲備。裏夫斯可以釋放它。中國的憤怒?毛澤東的山裏廚房CrowdStrike的全球故障不必成為一場反覆發生的噩夢尼泊爾的嬰兒潮只會越來越大安全運動可能在2023年3月達到頂峯,當時有一份請願書要求暫停六個月的AI開發,許多專家,包括AI領域的專家,都簽署了。正如我當時所説,這是一個壞主意,沒有任何進展。
快進到現在。參議院多數黨領袖查克·舒默和他的人工智能工作組發佈了一份聯邦政策指導文件。 這些計劃涉及聯邦對人工智能研發的大量支持,以及一貫認識到美國保持在人工智能領域領先地位對國家安全的重要性。立法者似乎明白他們寧願面對基於美國的人工智能系統的風險,也不願意在沒有美國對抗力量的情況下應對中國的發展。新冠疫情早期,中國政府的魯莽和不透明行為已經讓人深刻認識到這一點。
同樣重要的是主要科技公司自身的行為。OpenAI、Anthropic、Google和Meta在今年春季都發布了重大的服務升級。他們的新服務更智能、更快速、更靈活、更有能力。競爭加劇,這將推動進一步創新。
廣泛社會證據對人工智能的危險有何説法?至少從市場角度來看,世界運行得很好;市場正在創下新高。如果世界末日即將來臨,這不是我們所預期的。投資者似乎更關注通貨膨脹、利率和中東衝突。
關於學術界呢?頂尖科學家們並沒有在*《科學》或《自然》*等知名期刊上發表新模型,這表明人工智能可能會帶來世界末日。在經濟學領域,達倫·阿塞莫格魯(Daron Acemoglu)可以説是他這一代發表論文最多的經濟學家,最近發表了一篇模型,表明人工智能將會輕微提升全球GDP。我認為他低估了潛在的好處,但無論如何,他的論文並沒有預示末日。值得注意的是,這正是那位一年多前簽署呼籲暫停人工智能研究六個月的達倫·阿塞莫格魯。
至於哲學家們,尼克·博斯特羅姆,曾是牛津大學未來人類研究所的所長,是最早提出和傳播人工智能安全擔憂的人之一,這涵蓋了更廣泛的“存在風險”概念。在他最近出版的書籍中,他轉向了更加樂觀的立場。此外,由於未知原因,該研究所已關閉。
AI發展目前面臨的最大障礙是美國許多州正在審議的數百項AI監管法案。其中許多法案有意或無意地會嚴重限制AI的發展,比如加利福尼亞的一項法案要求對先進系統進行預先批准。過去,這種州級立法的急速增長通常會導致聯邦整合,以便協調整體監管並不至於過於繁重。儘管從這個過程中能否得出一個好的最終法案還不確定,但舒默的項目表明聯邦政府更感興趣的是加速AI的發展而不是阻礙它。
然而,回到我開始的地方:AI安全運動的消亡是否值得恐慌?幾乎不值得。提前完全工程化安全從來都不是一個現實的前景。當人類發明計算機,或者説印刷術時,很少有安全問題是事先解決的,也不可能事先解決。相反,隨着歷史的進展,安全問題是逐案解決的。並非每一項安全努力都成功了——確實出版了危險的書籍——但印刷術仍然是人類的福音。
如果我們想這一次做得更好,構建安全的AI系統——而我們應該這樣做——那麼達到目標的最佳途徑就是繼續前進:構建系統並向用户提供服務,一邊不斷迭代和改進。幸運的是,現在似乎正發生着這種情況。AI安全運動的影響可能已經減弱,但使AI更安全的機會才剛剛開始。
在彭博觀點的其他地方:
- 如果人工智能破壞了民主,我們可能永遠不會知道:Parmy Olson
- 從深度偽造到軍備競賽,人工智能政治已經來臨:Niall Ferguson
- 谷歌的人工智能對網絡經濟不利:Dave Lee
更多內容,請訂閲我們的新聞簡報。
星期五全球IT系統的毀滅性全球性故障中最令人不安的事情之一是這類毀滅性事件變得多麼常見。
在過去幾年裏,來自亞馬遜公司等公司的類似故障曾暫時關閉了全球範圍內的系統,而這最新問題是由網絡安全公司 CrowdStrike Holdings Inc. 的一次失敗的軟件更新引起的,該公司與大客户微軟公司的聯繫導致了全球性問題 — 包括機場混亂、股票交易所和醫院,儘管現在已部署了修復方案。