谷歌的人工智能一直在產生幻覺有人在意嗎?- 彭博社
Parmy Olson
不要那麼快。
攝影師:彭博社/彭博社
事實還是虛構?
攝影師:理查德·A·布魯克斯/法新社/蓋蒂圖片社
多年來,“谷歌”意味着搜索網絡上豐富的數據。如今,它意味着要穿過廣告、垃圾郵件,以及最近出現的極不準確的人工智能答案。谷歌在過去一週推出的新 AI概覽功能 導致了一連串的錯誤,這一定讓谷歌母公司Alphabet Inc.的首席執行官桑達爾·皮查感到尷尬。當被問及奶酪從比薩餅上滑落時,它建議用户塗膠水。它向另一個用户建議,蛇是哺乳動物。
皮查對有史以來最成功、最賺錢的技術產品進行了調整,使其變得完全不可靠,甚至危險。他將其下線的倒計時已經開始。他越早這樣做,越好。
彭博社觀點日本正在與其自身有缺陷的領導人搏鬥美國因錯誤的原因追捕特穆機器尚未對金融領域的主宰者構成威脅歐洲軍隊可能拯救台灣。真的。目前,谷歌表示,隨着每一份關於幻覺的新報告,它正在完善其人工智能搜索服務(根據我的Twitter動態,這種情況正在變得越來越嚴重)。一位谷歌發言人告訴《The Verge》,錯誤發生在“通常非常罕見的查詢上,並不代表大多數人的體驗。” 對於一個以整理世界信息為傲的公司來説,這是一個糟糕的藉口。而且,不經常的搜索查詢應該得到可靠的結果,因為絕大多數的谷歌搜索由一長串罕見的查詢組成。
這對於一個曾經如此謹慎的公司來説是一個驚人的轉變,該公司曾拒絕發佈其構建的生成式人工智能技術,這項技術至少領先於OpenAI公司的ChatGPT兩年。自那時以來,該公司已屈服於由微軟和OpenAI引發的競賽,二者之間引發了一系列爭議。上週,OpenAI發佈了ChatGPT的新版本,故意安排在谷歌的人工智能發佈的次日。但在所有的匆忙中,Sam Altman搞砸了發佈,並與斯嘉麗·約翰遜發生了爭執。1
史蒂夫·喬布斯的2011年口號“It just works”體現了一個時代,即技術產品的可靠性標準。但越來越多的科技公司展示生成式人工智能有多麼不起作用,他們將越來越難向企業客户和消費者證明其有用性。
甚至埃隆·馬斯克,即將籌集60億美元用於他的xAI初創公司,也沒有在自己的SpaceX和Starlink業務中使用生成式人工智能工具,因為它們一直在犯錯。“我會問它費米悖論的問題,火箭發動機設計的問題,電化學的問題,”他在本月早些時候告訴密爾肯研究所會議。“到目前為止,AI在所有這些問題上表現都很糟糕。”
如果谷歌堅持使用AI概述並保留該功能,一個明顯的結果將是更多的錯誤信息。另一個結果是,就像我們習慣了忽略SEO垃圾信息和贊助廣告一樣,我們也會適應其AI製造的荒謬錯誤。我們會習慣於更加平庸的服務,因為幾乎沒有其他選擇。(谷歌在搜索領域的全球市場份額已從大約十年前的87%下降到82%。)在這個新時代,我們不得不接受曾被宣傳為改變世界的次級軟件,需要不斷事實核查。
幻覺並不是一個新問題,但似乎我們正在習慣於這個問題,這對我們不利。2023年2月,谷歌的Bard首次演示中出現錯誤,Alphabet的股價下跌了7%,市值蒸發了1000億美元。週五,隨着更多社交媒體上最新失誤的帖子被傳播,股價幾乎上漲了1%。華爾街似乎並不在意。谷歌在意嗎?
我們將在Pichai暫停新的人工智能功能進行進一步調整時得知,就像他在二月份暫停了Gemini圖像生成器一樣。這將是又一次令人羞辱的撤退,但為了讓技術重新走上“正常運行”的道路,他應該這樣做。
更多來自彭博觀點:
想要更多彭博觀點嗎? OPIN <GO> 。或者您可以訂閲 我們的每日新聞簡報 。
是否曾經注意到科幻小説對未來技術的預測是錯誤的?我們沒有得到飛行汽車,卻得到了助長文化戰爭的病毒推文。我們沒有手腕上的傳真機,卻得到了迷因。我們對人工智能也有類似的現實檢驗。科幻描繪了一個未來,計算機以機器人的方式提供可靠信息。然而,企業嘗試將生成式人工智能工具插入基礎設施後,發現這些工具“產生幻覺”並犯錯誤。它們幾乎不可靠。而這些工具本身也不僵硬和機械化。它們幾乎是異想天開的。
“我們曾以為人工智能會是‘終結者’,但事實證明它更像是畢加索,”EyeLevel.ai創始人尼爾·卡茨説,這家初創公司幫助企業獲得生成式人工智能模型,使其在與數據連接時能夠以95%的準確率運行。卡茨預測,在進行了另外三到五年的調試之後,這種可靠性水平將在人工智能領域普遍存在,這意味着這項技術可以對金融或醫療保健公司的核心業務產生實質性的幫助。儘管如此,這並不意味着生成式人工智能還沒有對行業產生顛覆性影響。只是它的影響並非創造者所設想的那樣。