谷歌如何對AI變得謹慎並給微軟創造了機會 - 《華爾街日報》
Miles Kruppa and Sam Schechner
兩年多前,谷歌的兩位研究員開始推動公司發佈一款基於當時最先進技術打造的聊天機器人。他們開發的對話程序不僅能自信地探討哲學、閒聊最愛的電視劇,還能即興編造關於牛馬的雙關笑話。
據知情人士透露,研究員丹尼爾·德弗雷塔斯和諾姆·沙澤爾向同事表示,像他們這種由人工智能最新進展驅動的聊天機器人,將徹底改變人們搜索網絡和與計算機交互的方式。
他們敦促谷歌向外部研究人員開放該聊天機器人,試圖將其整合到Google Assistant虛擬助手中,後來還要求谷歌進行公開演示。
知情人士稱,谷歌高管多次回絕了他們的提議,至少有一次表示該程序不符合公司對AI系統安全性和公平性的標準。二人於2021年離職創辦自己的公司開發類似技術,並向同事表示對無法將AI工具公之於眾感到沮喪。
如今,這家曾引領人工智能現代時代的公司發現,其對該技術的謹慎態度正受到最老牌競爭對手之一的挑戰**。**上月,微軟公司宣佈計劃將病毒式傳播的ChatGPT背後的技術注入必應搜索引擎。這款由埃隆·馬斯克聯合創立的七年初創公司OpenAI開發的聊天機器人,憑藉類人的對話能力驚豔全球,其技術基礎正是源自谷歌早期的AI突破。
在ChatGPT問世數月後,谷歌正採取措施公開推出其自主研發的聊天機器人,該技術部分源自德弗雷塔斯和沙澤爾的研究成果。這款名為Bard的聊天機器人通過抓取網絡信息,以對話形式回答問題。谷歌於2月6日宣佈正在內部和外部測試Bard,計劃未來幾周廣泛發佈,並表示擬將類似技術整合至部分搜索結果中。
谷歌相對謹慎的態度源於其人工智能項目多年來的爭議——從關於算法偏見與準確性的內部爭論,到去年公開解僱聲稱其系統已具備感知能力的員工。
據現任及離職員工等知情人士透露,這些事件令高管們警惕公開AI產品演示可能對其聲譽造成的風險,以及對其母公司Alphabet去年近2830億美元收入主要來源的搜索廣告業務的影響。
“谷歌正艱難地在冒險程度與保持全球思想領導力之間尋找平衡,“2020年前負責該公司聊天機器人項目的谷歌前產品經理高拉夫·內馬德表示。
德弗雷塔斯和沙澤爾通過外部代表拒絕了採訪請求。
谷歌發言人表示,他們的研究當時頗具價值,但研究原型與可供日常安全使用的可靠產品存在巨大差距。公司補充稱,在發佈AI技術時必須比小型初創企業更審慎。
谷歌的做法可能被證明是審慎的。微軟在2月份表示,將在用户報告不準確答案後對其聊天機器人設置新的限制,有時在將應用程序推向極限時會出現失控的回應。
Alphabet公司及其子公司谷歌的首席執行官桑達爾·皮查伊告訴員工,公司一些最成功的產品是隨着時間的推移贏得了用户的信任。照片:凱爾·格里洛特/彭博新聞在上個月給谷歌員工的一封電子郵件中,谷歌和Alphabet的首席執行官桑達爾·皮查伊表示,公司一些最成功的產品並非最先進入市場,而是隨着時間的推移贏得了用户的信任。
“這對每個人來説都將是一段漫長的旅程,整個領域都是如此,”皮查伊寫道。“我們現在能做的最重要的事情是專注於打造一個偉大的產品,並負責任地開發它。”
谷歌的聊天機器人努力可以追溯到2013年,當時谷歌聯合創始人拉里·佩奇,時任首席執行官,聘請了雷·庫茲韋爾,這位計算機科學家幫助普及了機器有一天會超越人類智能的想法,這一概念被稱為“技術奇點”。
庫茲韋爾開始開發多個聊天機器人,包括一個基於他當時正在創作的小説命名的丹妮爾,他後來表示。庫茲韋爾通過庫茲韋爾技術公司(他在加入谷歌之前創辦的一家軟件公司)的女發言人拒絕了採訪請求。
谷歌還收購了英國人工智能公司DeepMind,該公司有着相似的使命,即創造人工通用智能,或者説能夠模擬人類心智能力的軟件。
與此同時,學術界和技術專家對人工智能的擔憂日益加劇——例如其通過面部識別軟件實現大規模監控的潛力——並施壓谷歌等公司承諾不追求該技術的某些用途。
部分出於對谷歌在該領域日益增長的地位的回應,包括馬斯克在內的一羣科技企業家和投資者於2015年成立了OpenAI。最初以非營利組織的形式構建,OpenAI表示希望確保人工智能不會淪為商業利益的犧牲品,而是被用於造福人類。(馬斯克於2018年離開OpenAI董事會。)
谷歌最終在2018年承諾不在軍事武器中使用其人工智能技術,此前員工強烈反對公司參與美國國防部一個名為“馬文計劃”的合同,該合同涉及使用人工智能自動識別和跟蹤潛在無人機目標,如汽車。谷歌放棄了該項目。
皮查伊還宣佈了一套七項人工智能原則來指導公司的工作,旨在限制不公平偏見技術的傳播**,**例如人工智能工具應對人負責,並“為安全而構建和測試”。
諾姆·沙澤爾和丹尼爾·德弗雷塔斯在他們位於帕洛阿爾託的新公司辦公室。攝影:《華盛頓郵報》/蓋蒂圖片社 温妮·温特邁爾大約那時,在谷歌YouTube視頻平台工作的巴西裔工程師德弗雷塔斯先生啓動了一個人工智能副項目。
童年時,德弗雷塔斯先生就夢想研究能生成逼真對話的計算機系統,他的研究夥伴沙澤爾先生在一月上傳至YouTube的視頻採訪中説道。在谷歌,德弗雷塔斯先生着手開發了一個聊天機器人,其模仿人類對話的能力比以往任何嘗試都更接近真實。
多年來,這個最初名為Meena的項目一直處於保密狀態,德弗雷塔斯先生和其他谷歌研究人員不斷優化其應答。公司內部,一些員工擔憂此類程序的風險——2016年微軟被迫終止發佈名為Tay的聊天機器人,因用户誘導其作出支持阿道夫·希特勒等不當回應。
2020年,外界首次通過谷歌研究論文窺見Meena,該論文稱該聊天機器人已學習公共領域社交媒體對話中的400億個單詞。
OpenAI基於800萬個網頁開發了類似模型GPT-2。雖然向研究人員發佈了版本,但最初未公開程序,稱擔心其可能被用於生成大量欺騙性、偏見性或侮辱性語言。
在谷歌,負責Meena的團隊也曾希望發佈他們的工具,即使像OpenAI那樣僅以有限形式推出。前谷歌產品經理內馬德表示,公司領導層以該聊天機器人不符合谷歌關於安全與公平的人工智能原則為由,拒絕了這一提議。
谷歌發言人回應稱,該聊天機器人歷經多次審查,多年來因各種原因被限制廣泛發佈。
團隊繼續改進聊天機器人技術。谷歌大腦AI研究部門資深軟件工程師沙澤爾加入項目後,將其更名為LaMDA(對話應用語言模型)。他們為其注入了更多數據和算力。沙澤爾曾參與開發Transformer模型——這種廣受讚譽的新型AI架構極大簡化了ChatGPT等強大程序的開發流程。
然而這項技術很快引發公開爭議。谷歌知名AI倫理研究員格布魯2020年底聲稱,她因拒絕撤回關於LaMDA類程序固有風險的研究論文,並向同事羣發投訴郵件遭解僱。谷歌否認解僱説法,指其研究缺乏嚴謹性。
2021年穀歌虛擬大會上與LaMDA的對話示例。圖片來源:Daniel Acker/彭博新聞社谷歌研究主管傑夫·迪恩竭力表明公司仍在致力於負責任的AI開發。2021年5月,該公司承諾將AI倫理團隊規模擴大一倍。
在作出承諾一週後,皮查伊在公司年度旗艦大會上登台,展示了兩段與LaMDA的預錄對話——這個AI能根據指令回答問題,彷彿自己是矮行星冥王星或紙飛機。
知情人士透露,谷歌研究人員在大會前幾天準備了這些示例,此前皮查伊臨時要求進行演示。公司強調其努力使聊天機器人更準確,並減少被濫用的可能性。
“開發LaMDA這類技術時,我們的首要任務是確保將此類風險最小化,“兩位谷歌副總裁在當時的一篇博客文章中表示。
被谷歌解僱的工程師布萊克·勒莫因表示,公司曾考慮在2022年5月的旗艦大會上發佈LaMDA版本。這位工程師因公開與聊天機器人的對話並聲稱其具有感知能力而被解僱。他説,當勒莫因的結論開始在公司內部引發爭議後,谷歌決定不發佈該產品。谷歌表示勒莫因的擔憂缺乏依據,其公開披露行為違反了僱傭和數據安全政策。
知情人士稱,早在2020年,德弗雷塔斯和沙澤爾就嘗試將LaMDA整合到Google Assistant中。這款軟件應用四年前首次亮相於Pixel智能手機和家用音箱系統,每月有5億多用户用它完成查看天氣、安排約會等基礎任務。
據知情人士透露,負責Assistant項目的團隊開始使用LaMDA進行回答用户問題的實驗。但這些人表示,谷歌高管並未將這款聊天機器人作為公開演示版發佈。
知情人士稱,谷歌不願向公眾發佈LaMDA的態度讓德弗雷塔斯和沙澤爾感到沮喪,他們隨後採取行動離開公司,開始利用類似技術創辦初創企業。
知情人士表示,皮查伊親自介入,要求兩人留下繼續開發LaMDA,但並未承諾向公眾發佈該聊天機器人。德弗雷塔斯和沙澤爾於2021年底離開谷歌,並於同年11月成立了他們的新初創公司Character Technologies Inc.。
Character去年發佈的軟件允許用户創建聊天機器人並與之互動,這些聊天機器人可以扮演蘇格拉底等知名人物或心理學家等典型角色。
“這在谷歌內部引起了一些轟動,“沙澤爾在YouTube上傳的採訪中表示,但沒有詳細説明,“但最終我們決定,作為初創公司發佈產品可能會更順利。”
自微軟與OpenAI達成新協議以來,谷歌一直在努力重新確立其作為人工智能創新者的身份。
谷歌在2月份宣佈推出Bard,就在微軟舉辦活動介紹必應整合OpenAI技術的前夕。兩天後,在巴黎的一個活動上(谷歌稱該活動原計劃討論更多區域性搜索功能),該公司向媒體和公眾再次展示了Bard,以及一個使用類似LaMDA的AI技術生成搜索查詢文本響應的搜索工具。
谷歌表示,公司會經常評估產品發佈條件,由於市場期待值高漲,即使巴德尚未完善,仍決定先向測試者開放。
微軟公司首席執行官薩提亞·納德拉上月在該公司位於華盛頓州雷德蒙德的總部活動上發表講話。圖片來源:Chona Kasinger/Bloomberg News
微軟員工亞歷山大·坎貝爾演示必應搜索引擎與Edge瀏覽器接入OpenAI的功能。圖片來源:Stephen Brashear/Associated Press谷歌搜索業務副總裁伊麗莎白·裏德在接受採訪時透露,自去年初以來,公司內部已展示過整合LaMDA等生成式AI工具回覆的搜索產品。
該公司認為生成式AI在搜索領域最具價值的應用場景,是處理沒有唯一正確答案的特定類型問題(谷歌稱之為NORA問題),這類情況下傳統的藍色谷歌鏈接可能無法滿足用户需求。裏德表示,公司還看好該技術在解決數學題等其他複雜查詢中的潛力。
高管們坦言,與許多類似程序一樣,準確性仍是待解難題。這類模型在信息不足時傾向於編造答案,研究者稱之為"幻覺”。據體驗者反映,基於LaMDA技術構建的工具有時會推薦虛構餐廳或給出答非所問的回覆。
微軟上個月將新版必應稱為一項進行中的工作,此前有用户報告稱與集成在搜索引擎中的聊天機器人進行了令人不安的對話**,**並引入了諸如限制聊天長度等變更,旨在減少機器人發出攻擊性或詭異回應的可能性。谷歌和微軟二月份展示的聊天機器人都存在程序生成的事實性錯誤。
“這有點像和小孩子説話,“裏德女士在談到LaMDA等語言模型時表示,“如果孩子覺得必須給你一個答案卻沒有答案時,就會編造一個聽起來合理的答案。”
谷歌持續優化其模型,包括訓練它們在不知道答案時承認無知而非編造答案,裏德女士説。該公司補充稱,多年來已提升了LaMDA在安全性和準確性等指標上的表現。
整合LaMDA這類能將數百萬網站內容合成一段文字的程序,可能通過分流網站訪問量而惡化谷歌與主要新聞機構及其他在線出版商長期存在的矛盾。據知情人士透露,谷歌內部表示必須在搜索結果中部署生成式AI時兼顧網站所有者利益,部分措施包括保留來源鏈接。
“我們非常謹慎地處理了生態系統關切,“負責搜索引擎的谷歌高級副總裁普拉巴卡爾·拉加萬在二月的活動中表示,“這是我們打算持續重點關注的議題。”
莎拉·克勞斯 對本文亦有貢獻。
聯繫邁爾斯·克魯帕,郵箱:[email protected];聯繫山姆·謝克納,郵箱:[email protected]
刊登於2023年3月8日印刷版,標題為《谷歌在AI上的謹慎如何給了微軟可乘之機》。