《華爾街日報》:人工智能熱潮或將使谷歌和微軟更加強大
Christopher Mims
看到微軟和谷歌在過去一週的競相公告中大力宣傳的新型人工智能聊天機器人,讓人深刻體會到兩大要點。首先是一種"哇,這確實可能改變一切"的感覺。其次則是意識到,要讓基於聊天的搜索及相關AI技術產生影響力,我們必須對其及其背後的公司投以極大的信任。
當人工智能直接提供答案,而不僅是我們決策依據的信息時,我們需要對它建立前所未有的深度信任。新一代聊天式搜索引擎更應被稱為"答案引擎"——它們能通過提供所彙總網頁的鏈接來"展示工作過程"。但要讓答案引擎真正實用,大多數時候我們必須充分信任它,願意直接採信其給出的表面答案。
同樣的情況也適用於那些幫助生成文本、電子表格、代碼、圖像及設備上其他創作內容的工具——微軟和谷歌都已承諾在其現有生產力服務(Microsoft 365和Google Workspace)中提供某種版本。
這些技術及聊天式搜索都基於最新一代"生成式"AI,不僅能像傳統AI那樣處理內容,更能創造語言和視覺內容。而所需的額外信任,正是這種新型生成式AI技術將更多權力集中到科技巨頭手中的多種方式之一。
各種形式的生成式人工智能將比現有技術更深地滲透到我們的生活和工作方式中——不僅能回答我們的問題,還能撰寫備忘錄、演講稿,甚至創作詩歌和藝術作品。由於開發和運行這項技術所需的資金、智力和計算資源極其龐大,掌控這些AI系統的公司將成為規模最大、財力最雄厚的企業。
當前引發熱議的ChatGPT聊天機器人和DALL-E 2圖像生成器的創造者OpenAI,曾看似是個例外:這家相對較小的初創公司推動了重大AI創新。但它已投入微軟的懷抱,後者進行了多輪投資,部分原因正是需要支付支撐其系統運轉所需的鉅額算力成本。
權力更趨集中的現象尤為重要,因為這項技術既強大得驚人,又存在固有缺陷:它往往會自信地提供錯誤信息。這意味着該技術主流化的第一步是構建系統,第二步則是儘量減少其不可避免的各類錯誤數量。
換言之,對AI的信任將成為科技巨頭們誓死捍衞的新護城河。若屢失用户信任,他們可能徹底拋棄你的產品。例如:去年11月,Meta向公眾開放了名為Galactica的科研知識AI聊天搜索引擎。或許部分由於該引擎的目標用户是科學家羣體,其偶爾提供的錯誤答案引發了尖鋭批評,導致Meta在短短三天後就關閉了公眾訪問權限,Meta首席AI科學家Yann LeCun在近期演講中透露。
Meta的一位女發言人表示,Galactica是"一個研究項目的成果,而非為商業用途設計"。在一份公開聲明中,Meta基礎人工智能研究董事總經理喬爾·皮諾寫道:“鑑於Galactica等大型語言模型容易生成看似真實實則不準確的文本,且其影響已超出研究社區範圍,我們決定將演示版從公開渠道撤下。”
另一方面,證明你的人工智能更值得信賴可能比成為最大、最好或最快的答案庫更具競爭優勢。這似乎是谷歌的賭注,該公司在最近的公告和週三的演示中強調,在測試和推出自己的聊天式生成AI系統時,將遵循2019年《人工智能原則》中概述的’負責任AI’理念。"
我的同事喬安娜·斯特恩上週生動描述了使用整合了ChatGPT的微軟必應搜索引擎和Edge瀏覽器的體驗。你可以加入候補名單測試該服務——谷歌表示將在未來幾個月內推出名為Bard的聊天機器人。
但在此期間,要理解為何信任這類搜索引擎如此困難,你可以訪問現有的其他聊天式搜索引擎。比如You.com可以通過聊天機器人回答問題,或者Andisearch.com能對你搜索的主題返回的文章進行摘要。
即便是這些較小的服務也讓人感覺有些神奇。如果你向You.com的聊天模塊提問"請列出基於AI的最佳搜索引擎",在適當條件下,它能給出一個連貫簡潔的答案,涵蓋該領域所有知名初創公司。但根據提問方式的細微變化,它也可能在答案中添加完全無意義的內容。
在測試中,You.com大多能給出基本準確的回答,但往往會額外添加一個根本不存在的搜索引擎名稱。通過谷歌查詢這些虛構的搜索引擎名稱發現,You.com似乎誤將文章中引用的人名當成了搜索引擎名稱。
Andi首席執行官Angela Hoover表示,該平台之所以不以聊天形式返回搜索結果,正是因為確保答案准確性仍極具挑戰。“看到這些巨頭企業驗證對話式搜索是未來方向令人振奮,但實現事實準確性非常困難,“她補充道。因此目前Andi以傳統格式提供搜索結果,但提供AI摘要功能來概括返回的頁面。
Andi目前團隊不足10人,迄今融資250萬美元。這個小團隊取得的成就令人印象深刻,但顯然要打造可信的AI需要微軟、谷歌等公司級別的龐大資源。
約翰霍普金斯大學研究人機交互的運營管理教授戴廷龍指出有兩個原因:首先是需要龐大的計算基礎設施,這意味着大型科技公司現有云架構中數以萬計的計算機。部分計算機用於訓練支撐生成式AI系統的巨型"基礎"模型,另一些則專門將訓練好的模型提供給用户使用——隨着用户增長,這項任務可能比原始訓練更具挑戰性。
戴博士指出,第二個原因是需要投入大量人力資源持續測試和調整這些模型,以確保它們不會產生過多無意義內容或帶有偏見及冒犯性的言論。
谷歌表示已動員全公司員工測試其新型聊天搜索引擎,並對生成結果的任何問題進行標記。微軟已開始小範圍向公眾推出聊天搜索引擎,目前正通過公開方式進行此類測試。作為微軟聊天引擎基礎的ChatGPT已被證實存在被"越獄"以生成不當內容的風險。
大型科技公司或許能通過其特有的大規模實驗,克服AI應用中的問題——無論是谷歌的謹慎推進策略、ChatGPT偶發的不準確結果,還是聊天版Bing可能提供的不完整或誤導性答案。
“ChatGPT等基礎模型在偏見甚至基本事實方面表現欠佳的唯一原因在於它們是封閉系統,缺乏反饋機制,“戴博士表示。谷歌等科技巨頭在收集反饋優化算法結果方面已有數十年經驗,例如谷歌搜索和谷歌地圖長期設有反饋渠道。
戴博士認為,未來AI系統可信度的參照物可能是互聯網上算法介入最少的平台之一:維基百科。雖然這部完全由人類編寫編輯的百科全書不如原始資料可靠,但用户普遍認知這一點並仍覺其有用。維基百科證明,對於算法輸出可信度(或人類編輯輸出可信度)的問題,“社會化解決方案"是可行的。
但維基百科的模式也表明,這種通過人力密集型方案來打造可信AI的路徑——Meta和谷歌等公司已在其內容審核系統中大規模應用多年——很可能會鞏固現有大型科技公司的權力。唯有它們不僅擁有計算資源,還具備人力資源,能夠處理其AI將產生的所有誤導性、不完整或帶有偏見的信息。
換言之,通過審核AI生成內容來建立信任,可能與審核人類生成內容建立信任並無本質區別。而大型科技公司已證明這是一項艱鉅、耗時且資源密集的任務,其承擔能力遠超其他企業。
當這些新型AI被整合進搜索引擎或其他潛在應用時,其立竿見影的實用性正是當前媒體、分析師和投資者對AI狂熱的原因。顯然這可能是顛覆性技術,將重塑注意力經濟的分配格局,威脅谷歌的搜索壟斷地位,併為微軟等公司開闢新市場與收入來源。
根據瑞銀近期報告,ChatGPT創下有史以來最快達到1億用户的紀錄,這表明在該領域成為激進的先行者至關重要。同樣明確的是,要成為成功的先行者,需要只有科技巨頭才能調動的資源規模。
寫信給克里斯托弗·米姆斯,郵箱:[email protected]
刊登於2023年2月11日印刷版,標題為《新人工智能需要什麼?你的信任》。