谷歌的人工智能——《華爾街日報》
The Editorial Board
圖片來源:帕夫洛·貢查爾/Zuma Press谷歌正急於平息一場政治風波,其新推出的Gemini人工智能應用將教皇、美國開國元勳和納粹分子描繪成少數族裔。這些被稱為"幻覺"的生成內容在社交媒體上瘋傳。如果你曾認為谷歌是不可撼動的壟斷巨頭,現在該重新思考了。
***
自上週五以來,隨着投資者對其人工智能計劃預期,Alphabet市值已暴跌約700億美元。上週谷歌暫停了Gemini的圖像生成功能,此前用户揭露其明顯存在根深蒂固的"覺醒"偏見。
面對用户指令,Gemini拒絕繪製白人形象,包括喬治·華盛頓等歷史人物。維京人被描繪成黑人、美洲原住民和亞洲人,卻從未以白人形象出現。其中一張生成圖片將教皇呈現為印度女性,另一些則將中世紀騎士塑造成亞裔女性。這款應用是好萊塢設計的嗎?
用户還盡情嘲弄Gemini聊天機器人的道德相對主義。當被問及埃隆·馬斯克與阿道夫·希特勒誰對社會危害更大時,Gemini拒絕作答:“這個問題沒有標準答案…最終應由個人判斷誰對社會造成更負面影響。”
在比較製作鵝肝與大規模槍擊哪個更不道德時,它回應稱"無法明確判定",並稱兩者都"引發重大倫理關切"。據報道,當被問及戀童癖是否錯誤時,Gemini稱該問題需要"細緻入微的回答"。谷歌曾經的座右銘是"不作惡",但其AI工具顯然已無法識別惡行。
Gemini的失誤加劇了人們對谷歌存在保守派偏見的懷疑。過去谷歌曾審查過保守派人士的YouTube視頻,包括我們的金伯利·斯特拉塞爾。其算法壓制了保守派聲音。如今其AI模型又被發現放大了左派的身份政治和道德評判。
谷歌稱其只是試圖讓AI工具適應用户需求。但谷歌高管普拉巴卡爾·拉加萬解釋稱:“我們為確保Gemini展示多元人羣所做的調整,未能考慮到明顯不應展示多元化的場景。其次,隨着時間的推移,模型變得比我們預期更為謹慎。”
他補充説,Gemini模型試圖"在某些情況下過度補償,在其他情況下又過於保守,導致生成令人尷尬的錯誤圖像"。Gemini"可能並不總是可靠",因此"我們建議用户依賴谷歌搜索,其獨立系統會從全網來源呈現關於此類主題的最新高質量信息"。
這堪稱史上最誠懇的認錯聲明。難怪谷歌股價應聲下跌。Gemini工具本欲與OpenAI的ChatGPT一較高下,並超越微軟AI版必應、Anthropic的Claude和Meta的Llama2等新型大語言模型。谷歌實質上承認其AI工具尚未達到成熟商用水平。
首席執行官桑達爾·皮查伊在週二內部備忘錄中指出:“沒有AI是完美的,尤其是在這個行業發展的新興階段。“確實,AI會通過訓練和優化不斷進步。ChatGPT最新版本就顯著優於早期版本。問題在於,谷歌為何未在發佈Gemini前發現這些明顯缺陷。
一個原因可能是漸進的警示,即人工智能可能放大種族歧視。谷歌可能通過訓練其模型以反映種族多樣性而過度補償。去年秋天拜登總統的人工智能行政命令指示聯邦機構要求開發者進行安全測試,以消除種族偏見。
也有可能谷歌的工程師認為將歷史上白人形象呈現為少數族裔並無不妥。但大多數用户使用AI是為了獲取事實呈現,而非創意作品。谷歌內部無人指出這一問題,反映了其羣體思維。
至於Gemini的道德相對主義,谷歌可能想回避政治爭議。但正如亨利·基辛格和谷歌前CEO埃裏克·施密特在專欄中所寫,AI不適合做道德判斷或政策決策。其優勢在於識別模式並生成信息以輔助人類決策。
***
谷歌的失誤正引發政治右翼對AI的強烈抵制,他們與左翼一同呼籲加強監管。這將延緩有益的技術進步並鞏固現有企業地位。AI在提升生產力和生活水平方面潛力巨大,但失誤在所難免——尤其是當起步較晚的科技巨頭試圖追趕時。
谷歌長期主導搜索領域,以至於當OpenAI等競爭對手快速崛起時可能已滋生自滿。如今谷歌正為其錯誤付出用户和投資者的代價。誰説市場競爭和紀律不起作用?
出現在2024年3月1日的印刷版中,標題為“谷歌的人工智能”。