科技巨頭豪擲數十億美元投資AI,但炒作常與現實不符——《華爾街日報》
Karen Hao and Miles Kruppa
經過多年企業對於人工智能潛力的強調,研究人員表示現在需要重新調整預期。
隨着技術的近期突破,企業已開發出更多系統,能夠生成看似類人的對話、詩歌和圖像。然而人工智能倫理學家和研究人員警告,部分企業正在誇大其能力——他們認為這種炒作正在釀成廣泛誤解,並扭曲政策制定者對該技術威力和缺陷的認知。
“我們正失去平衡,“西雅圖非營利研究機構艾倫人工智能研究所首席執行官奧倫·埃齊奧尼表示。
他與其他研究人員指出,這種失衡解釋了為何本月早些時候,當谷歌母公司Alphabet的一名工程師基於宗教信仰聲稱該公司某人工智能系統應被視為有知覺時,許多人會被其説辭左右。
該工程師稱聊天機器人已實質上成為人類,有權對其實驗徵得同意。谷歌暫停其職務並駁斥該主張,表示公司倫理學家和技術專家已評估過這種可能性並予以否定。
研究人員表示,認為人工智能正在或終將具備意識的觀點,在更廣泛科學界仍屬邊緣認知。
現實中,人工智能包含的一系列技術主要仍服務於各類非銀幕化的後台運作,例如通過處理用户數據來更精準投放廣告、內容及產品推薦。
過去十年間,谷歌、Facebook母公司Meta Platforms Inc.和亞馬遜公司(Amazon.com Inc.)等企業投入巨資推進此類能力,為它們的增長和盈利引擎提供動力。
例如,谷歌利用人工智能更好地解析複雜的搜索提示,幫助其提供相關廣告和網絡結果。
一些初創公司也如雨後春筍般湧現,懷揣更宏大的抱負。其中一家名為OpenAI的公司從特斯拉(Tesla Inc.)首席執行官埃隆·馬斯克(Elon Musk)和微軟(Microsoft Corp.)等捐贈者和投資者那裏籌集了數十億美元,試圖實現所謂的人工通用智能,即一個能夠匹配或超越人類智能各個維度的系統。一些研究人員認為,即使不是無法實現,這也需要幾十年的時間。
這些公司之間為超越彼此而展開的競爭推動了人工智能的快速發展,並催生了越來越引人注目的演示,這些演示抓住了公眾的想象力,並引起了人們對這項技術的關注。
瑪格麗特·米切爾(Margaret Mitchell)在撰寫了一篇批評性論文後被解除了谷歌倫理人工智能團隊聯合負責人的職務;谷歌表示,這是因為她與外部人士分享了內部文件。圖片來源:Chona Kasinger/Bloomberg NewsOpenAI的DALL-E是一個可以根據用户提示生成藝術作品的系統,比如“麥當勞在土星軌道上”或“穿着運動裝備的熊參加鐵人三項”,最近幾周在社交媒體上催生了許多表情包。
谷歌隨後也發佈了基於文本的藝術生成系統。
儘管這些輸出結果可能令人驚歎,但越來越多的專家警告稱,企業並未充分抑制這種熱潮。
瑪格麗特·米切爾曾共同領導谷歌的倫理人工智能團隊,在她撰寫了一篇批評其系統的論文後被公司解僱。她表示,這家搜索巨頭向股東推銷的部分內容是,它是全球人工智能領域的佼佼者。
米切爾女士現在任職於一家名為Hugging Face的人工智能初創公司,而谷歌倫理人工智能團隊的另一位共同領導者蒂姆尼特·格布魯也被迫離職,他們是最早警告這項技術危險的人士之一。
他們在公司撰寫的最後一篇論文中提出,這些技術有時會造成傷害,因為它們類似人類的能力意味着它們具有與人類相同的失敗可能性。其中引用的例子包括:Facebook的人工智能系統將阿拉伯語的“早上好”錯誤翻譯為英語的“傷害他們”和希伯來語的“攻擊他們”,導致以色列警方逮捕了發佈問候語的巴勒斯坦男子,之後才意識到他們的錯誤。
蒂姆尼特·格布魯是一位著名的人工智能倫理學家,也是谷歌倫理人工智能團隊的另一位共同領導者,同樣被迫離職。圖片來源:Jeff Chiu/美聯社《華爾街日報》去年發佈的"Facebook文件"系列報道中審查的內部文件還顯示,Facebook的系統無法持續識別第一人稱射擊視頻和種族主義言論,僅刪除了少量違反公司規定的內容。
Facebook表示,其人工智能的改進已大幅減少了仇恨言論和其他違規內容的數量。
谷歌稱解僱了米切爾女士,原因是她與公司外部人員分享了內部文件。該公司人工智能負責人告訴員工,格布魯的工作不夠嚴謹。
這些解僱事件在科技行業引起強烈反響,數千名谷歌內外人士聯名譴責他們所稱的"前所未有的研究審查”。首席執行官桑達爾·皮查伊表示將努力在這些問題上重建信任,並承諾將研究人工智能倫理的人數增加一倍。
認知與現實之間的差距並不新鮮。埃齊奧尼等人指出,圍繞IBM公司人工智能系統沃森的營銷宣傳——該系統在智力競賽節目《危險邊緣》中擊敗人類後廣為人知。經過十年和數十億美元的投資後,該公司去年表示正在探索出售沃森健康部門,該部門的招牌產品本應幫助醫生診斷和治療癌症。
由於人工智能現已無處不在,涉及更多公司的軟件——電子郵件、搜索引擎、新聞推送、語音助手——滲透到我們的數字生活中,風險只會更高。
在其工程師近期發表聲明後,谷歌反駁了其聊天機器人具備感知能力的説法。
谷歌發言人布萊恩·加布裏埃爾表示,該公司的聊天機器人和其他對話工具"可以即興談論任何奇幻話題”,“如果你問當一隻冰淇淋恐龍是什麼感覺,它們能生成關於融化、咆哮等場景的文字”。他補充説,這與感知能力不同。
目前已被停職的工程師布萊克·勒莫因在採訪中稱,他通過名為LaMDA的聊天機器人進行對照實驗,整理了數百頁對話記錄來支持研究,並準確呈現了谷歌程序的內部運作機制。
谷歌暫停了工程師布萊克·勒莫因的職務,並駁斥其關於某人工智能系統應被視為具備感知能力的説法。圖片來源:Martin Klimek/The Washington Post/Getty Images勒莫因表示:“這並非誇大系統本質,我正儘可能謹慎精確地説明哪些方面存在不確定性,哪些方面確鑿無疑。”
自稱融合基督教與冥想等靈脩實踐的神秘主義者勒莫因聲稱,他以宗教身份將LaMDA描述為具有感知能力。
研究人工智能政策的布朗大學計算機科學博士生伊麗莎白·庫馬爾指出,這種認知偏差已滲入政策文件。近期地方、聯邦及國際法規和監管提案試圖解決AI系統可能存在的歧視、操縱等危害,這些預設都基於系統高度智能的前提。她表示,這些政策大多忽略了AI系統單純故障造成危害的可能性,而後者發生概率更高。
埃齊奧尼先生,同時也是拜登政府國家人工智能研究資源工作組的成員,表示政策制定者常常難以理解這些問題。“我可以告訴你,從我與他們中一些人的交談來看,他們意圖良好,提出的問題也不錯,但他們的瞭解並不十分深入,“他説。
聯繫 Karen Hao,郵箱:[email protected] 和 Miles Kruppa,郵箱:[email protected]
刊登於2022年6月30日的印刷版,標題為《人工智能的泡沫與現實不符》。