谷歌與Anthropic向企業兜售生成式AI 同時努力彌補其缺陷——《華爾街日報》
Belle Lin
加利福尼亞州門洛帕克——生成式人工智能系統的兩大領軍企業谷歌和Anthropic正競相突破技術侷限,同時加速推進其產品向企業銷售。
兩家公司週一晚間在《華爾街日報》CIO網絡峯會門洛帕克站發表演講,承認其AI系統存在幻覺問題——即系統會以權威姿態輸出完全錯誤的陳述。其他挑戰包括提升模型訓練/教學效率、清除訓練數據中的版權及敏感內容等,目前均無明確解決方案。
兩家公司表示正在應對這些侷限,但並非所有企業都願意將全部信任(及公司數據)託付給它們。企業技術主管們承受着證明AI投資物有所值的壓力,但當系統本身存在失真風險時,這種論證尤為困難。
“在高度監管、高風險或高敏感領域部署這類應用時,貴司能提供哪些應對策略?“金融服務公司OneMain Financial首席技術官勞倫斯·菲茨帕特里克在現場提問。
Anthropic聯合創始人兼首席科學官賈裏德·卡普蘭表示,該AI初創企業正在開發多項降低幻覺的技術,包括構建"我不知道"應答數據集。其理念是通過訓練使AI系統僅在掌握充分信息時作答,或為答案提供引用依據。
然而,讓AI模型過於謹慎也存在弊端。“我認為這些系統——如果訓練它們永不產生幻覺——它們會變得極度害怕犯錯,對任何問題都會回答’我不瞭解背景’。石頭不會產生幻覺,但它也毫無用處,“卡普蘭説道。
谷歌去年同意將其對Anthropic的投資增至最高20億美元,該公司押注客户會希望驗證AI系統提供的信息。谷歌DeepMind產品管理副總裁伊萊·柯林斯表示,解決方案之一是讓用户能輕鬆識別像其Gemini聊天機器人這類AI系統返回的信息來源。
“目前的情況還不能讓你完全信任模型輸出,“柯林斯説。“歸根結底,我還是想知道信息的源頭在哪裏,這樣我可以去查證。”
模型訓練數據的來源仍是另一個未解決的問題。在去年12月提起的訴訟中,《紐約時報》稱微軟和OpenAI未經許可使用其內容開發人工智能產品,包括OpenAI的聊天機器人ChatGPT。
Anthropic聯合創始人兼首席科學官賈裏德·卡普蘭週一在門洛帕克舉行的《華爾街日報》CIO網絡峯會上。攝影:尼基·裏奇特,《華爾街日報》圖片來源:尼基·裏奇特,《華爾街日報》訴訟稱,這些工具基於數百萬條《紐約時報》內容進行訓練,並利用這些材料回應用户的提問。但卡普蘭表示,如果要求AI公司從其模型訓練數據中移除特定內容,目前尚無直接方法實現。
自微軟Copilot和Anthropic的Claude等AI助手發佈以來,企業一直試圖保持對公司數據的控制權,從而阻止科技公司利用其數據訓練模型,避免向競爭對手泄露專有信息。
卡普蘭指出,大型語言模型一旦基於特定數據完成訓練,就無法從已學知識中"刪除"這些信息。
谷歌和Anthropic正在解決構建更強大模型的最大障礙——用於訓練的AI芯片等硬件的可用性、容量和成本問題。“最核心的需求是真正高效的計算資源,“卡普蘭表示。
柯林斯透露,谷歌持續通過研究突破應對該問題,包括自主研發的Tensor處理單元(TPU)芯片。“我們在自有數據中心部署TPU,因此受到的限制更少,“他解釋道。
谷歌新推出的Gemini模型中最大版本已比其前代產品更高效且構建成本更低,他説道。
Isabelle Bousquette和Steven Rosenbush對本文亦有貢獻。
聯繫Belle Lin,郵箱:[email protected]