谷歌因右翼抵制後撤銷人工智能功能而陷入“可怕困境” - 彭博社
Davey Alba, Julia Love, Shirin Ghaffary, Rachel Metz
Google DeepMind 網站在美國紐約的智能手機上,日期為2023年12月9日。
攝影師:Gabby Jones/Bloomberg二月份對於谷歌雄心勃勃的人工智能戰略來説,正在成為一個重要的月份。該公司將其聊天機器人重新命名為 Gemini,併發布了兩個重要的產品升級,以更好地與各方的競爭對手在高風險的人工智能軍備競賽中競爭。在所有這些之中,谷歌還允許 Gemini 用户生成看起來逼真的人物圖像。
起初並沒有多少人注意到這個功能。其他公司如 OpenAI 已經提供了工具,讓用户快速製作人物圖像,然後可以用於營銷、藝術和頭腦風暴創意想法。然而,像其他人工智能產品一樣,這些圖像生成器存在着根據它們在開發過程中所接收的數據而延續偏見的風險。要求一個護士,一些人工智能服務更有可能展示一個女性;要求一個首席執行官,你通常會看到一個男性。
在谷歌推出該功能的幾周內,Gemini 用户注意到了一個不同的問題。從2月20日開始,持續了一週,X 上的用户在社交媒體平台上充斥着 Gemini 不展示白人的例子 —— 即使在一個歷史背景下,他們可能會主導描繪,比如當用户請求創始人或1943年的德國士兵的圖像時。不久之後,具有大量右翼觀眾的公眾人物和新聞媒體聲稱,使用可疑的證據,他們對 Gemini 的測試顯示谷歌對白人有隱藏議程。
埃隆·馬斯克,X公司的所有者,加入了這場爭論,與數十篇關於毫無根據的陰謀論的帖子互動,其中包括一些將個別谷歌領導人指認為所謂的政策設計者。週四,谷歌 暫停了 Gemini 的人物圖像生成。第二天,谷歌高級副總裁普拉巴卡爾·拉加萬 發表了一篇博客文章,試圖闡明公司的決定,但沒有深入解釋該功能為何出現故障。
谷歌發佈了一個處理歷史圖像請求能力不足的產品,展示了科技公司面臨的獨特挑戰,即如何防止他們的人工智能系統放大偏見和錯誤信息 — 尤其是考慮到市場競爭壓力迫使他們迅速推出人工智能產品。谷歌沒有推遲發佈有缺陷的圖像生成器,而是嘗試了一個權宜之計。
據兩位知情人士透露,當谷歌推出這個工具時,它包含了一個技術修復方案,以減少輸出中的偏見,但這兩位知情人士表示,谷歌這樣做時並沒有完全預料到工具可能出現問題的各種方式,並且沒有公開透明地介紹他們的方法。
谷歌高級副總裁普拉巴卡爾·拉加萬試圖闡明公司的決定,但沒有深入解釋該功能為何出現故障。攝影師:朱莉婭·尼克森/彭博社谷歌為了AI對有色人種的偏見而進行的過度糾正使其在多樣性問題上再次遭受抨擊。這家科技巨頭多年來一直因在用户在其照片應用中搜索“大猩猩”時錯誤返回黑人圖片以及在是否適當地驅逐其道德AI團隊領導者的持久公開爭論中受到批評。
在迅速暫停這一工具的同時,沒有充分解釋系統為何會做出這樣的反應,谷歌員工和硅谷的其他人現在擔心公司的舉動會產生冷漠效應。他們表示,這可能會阻止人才從事AI和偏見問題的研究——這對該領域至關重要。
“整個科技行業,尤其是谷歌,再次將自己置於一個由自己製造的可怕困境中,”東北大學助理教授勞拉·埃德爾森説道,她研究了AI系統和大型在線網絡中信息流動。“該行業迫切需要將AI描繪成魔法,而不是隨機鸚鵡,”她提到了一個流行的比喻,描述了AI系統如何通過統計模式匹配模仿人類語言,而沒有真正的理解或領悟。“但他們只有鸚鵡。”
“雙子座被構建為一種創造力和生產力工具,它可能並不總是準確或可靠,”谷歌的一位發言人在一份聲明中表示。“我們正在迅速解決產品未適當響應的情況。”
在週二晚些時候發給員工的一封電子郵件中,谷歌首席執行官桑達爾·皮查伊表示,員工們一直在“日以繼夜地工作”來解決用户指出的雙子座響應問題,他補充説公司在“各種提示方面取得了實質性改進。”
“我知道它的一些回應冒犯了我們的用户並顯示了偏見 - 明確地説,這是完全不可接受的,我們搞錯了,”皮查伊在備忘錄中寫道,該備忘錄首次由Semafor報道。“沒有一種人工智能是完美的,尤其是在這個行業發展的初期階段,但我們知道對我們來説標準很高,我們將繼續努力,無論需要多長時間。我們將審查發生了什麼,並確保我們在規模上修復它。”閲讀更多: 生成式人工智能將刻板印象和偏見惡化
致力於倫理人工智能的谷歌員工在過去一年中一直在努力,因為公司加快了推出人工智能產品的步伐,以跟上OpenAI等競爭對手。儘管在雙子座圖像中包含有色人種顯示了對多樣性的考慮,但這表明公司未能充分考慮用户可能尋求創建圖像的不同背景,前谷歌倫理人工智能研究組聯席負責人、人工智能初創公司Hugging Face首席倫理科學家瑪格麗特·米切爾表示。當用户搜索他們認為世界應該是什麼樣子的圖像時,對多樣性的不同考慮可能是適當的,而不是世界在某個歷史時刻實際上是什麼樣子。
“谷歌關注膚色多樣性的事實是谷歌在短短四年前的飛躍進步。所以,這有點像是兩步前進,一步後退,”米切爾説。“他們應該因為真正關注這些事情而受到認可。只是,他們需要再進一步才能做到。”
谷歌的形象問題
對於谷歌來説,作為當今人工智能繁榮核心技術的先驅,長期以來一直面臨着巨大的壓力來正確生成圖像。谷歌非常擔心人們如何使用其AI圖像生成模型Imagen,以至於在首次在2022年5月的研究論文中詳細介紹其功能後,谷歌拒絕將該功能長時間釋放給公眾。首次詳細介紹其功能後,谷歌拒絕將該功能長時間釋放給公眾。。
多年來,公司內部的團隊就如何確保其AI工具在生成逼真的人物圖像時負責任進行了辯論,兩位熟悉此事的人士透露,他們要求不透露內部討論。據一位人士透露,曾經,如果在谷歌的Imagen內部試驗中要求程序生成一個人的圖像,甚至是隱含包含人物的圖像,比如一個足球場,它會用一個黑匣子回應。另一位人士表示,在進行多次審查後,谷歌才在Gemini中包含了生成人物圖像的功能。
有人表示,谷歌並沒有測試該功能可能產生意外結果的所有方式,但這被認為足夠好,以至於將其首次向公眾廣泛提供。儘管谷歌的團隊在創建該工具時表現謹慎,但內部普遍感覺公司對這種後果毫無準備。
瑪格麗特·米切爾(Margaret Mitchell),谷歌前首席研究員,表示公司“應該因為真正關注多樣性而受到認可”。“只是,他們需要再進一步才能做到。”攝影師:Chona Kasinger/Bloomberg當X上的用户傳播了吉米尼(Gemini)對人物的非歷史性描繪的圖片時,據一位現任員工稱,谷歌內部員工論壇上充斥着關於該模型缺陷的帖子。在Memegen上,這是一個員工分享公司搞笑圖片的內部論壇,一篇熱門帖子展示了電視主持人安德森·庫珀(Anderson Cooper)用手捂臉的圖片。
“這是一個捂臉動作,”該員工説。“有一種感覺,明顯這還沒有準備好……公司實際上正在試圖趕上潮流。”
谷歌、OpenAI和其他公司在其人工智能產品中設置防護欄,並經常進行對抗性測試 — 旨在探究工具如何應對潛在的惡意行為者 — 以限制潛在的問題輸出,如暴力或冒犯性內容。他們還採用多種方法來抵消數據中發現的偏見,比如讓人類對聊天機器人的回覆進行評分。另一種方法,一些公司用於生成圖像的軟件是擴展用户輸入到AI模型的具體提示詞,以抵消有害的刻板印象 — 有時不告訴用户。
兩位知情人士表示,谷歌的圖像生成是這樣工作的,儘管用户並不知情。這種方法有時被稱為提示工程或提示轉換。一份最近的 Meta 白皮書關於負責任地構建生成式人工智能的解釋是“在將文本輸入發送到模型之前直接修改文本輸入,通過添加更多信息、上下文或約束來引導模型行為。”
以請求生成一張護士的圖片為例。根據 Meta 的白皮書,提示工程“可以為模型提供額外的單詞或上下文,例如更新和隨機旋轉使用不同修飾語的提示,比如‘護士,男’和‘護士,女’。”這正是谷歌的人工智能在被要求生成人物圖像時所做的,根據知情人士的説法 — 它可能在原始提示中添加各種性別或種族,而用户從未看到它這樣做,從而顛覆了該工具可能產生的刻板輸出。
“這是一個快速的技術修復,”加州大學聖巴巴拉分校的助理教授 Fabian Offert 表示,他研究數字人文和視覺人工智能。“這是實現他們想要的部分內容的計算成本最低的方式。”閲讀更多: AI 如何放大極端的種族、性別刻板印象
OpenAI 採用了類似的方法來處理其圖像生成軟件。例如,當用户要求 ChatGPT 使用其 Dall-E 3 圖像生成軟件創建一張圖片時,OpenAI 的軟件會自動詳細説明用户輸入的提示。如果用户通過 OpenAI 的網站訪問聊天機器人,他們可以看到實際使用的更詳細的提示。但谷歌並沒有讓 Gemini 用户輕鬆查看幕後發生的事情。
谷歌決定對其圖像生成過程保持保密是一個錯誤,Offert説。正如他所指出的,這些努力 — 無論是對用户隱藏還是公開 — 都無法解決源自先進AI系統通常訓練的數據的根本問題。
“因為它們是基於被刮取的網絡數據進行訓練的,這些數據具有極大的偏見和固有的偏見,所以它們是垃圾,在政治意義上,因此它們必須以某種形式操縱它,以產生較少垃圾的東西,” Offert説。
此外,AI圖像生成系統的目的並不是創建歷史準確的圖像,華盛頓大學計算語言學教授Emily Bender説。“如果圖像是合成的,它就不是準確的歷史再現,”她説。生成式AI系統也是“未限定範圍的”,這意味着它們沒有為任何特定目的而開發,Bender補充説。無法預料人們可能以何種方式使用這項技術,更不用説為每種用例測試系統的安全性和有效性。
‘好戰的哭泣’
但在媒體領域,保守派批評谷歌在努力使其AI的輸出多樣化方面做得太過分。“谷歌的覺醒AI讓維京人變黑,教皇變成女人,”2月22日《紐約郵報》頭版大標題如此宣稱。極右政治評論員本·夏皮羅寫道,谷歌被抓住了“覺醒的議程”。尤其在X上,憤怒情緒不斷升級。風險投資家喬·朗斯代爾寫道,谷歌“在很大程度上由種族主義意識形態者和活動人士控制”。
馬斯克,這位億萬富翁擁有X公司,他在社交網絡上引起了大部分討論。根據彭博社的審查,自2月20日以來,馬斯克至少155次發佈或回覆有關谷歌對白人有秘密仇恨陰謀論的帖子。在十多篇帖子中,馬斯克還單獨指責了谷歌的個別領導人,包括雙子座產品負責人傑克·克勞奇克和谷歌人工智能倫理顧問詹·詹奈,毫無根據地聲稱他們是公司人工智能被指控偏袒白人的幕後策劃者。馬斯克和其他保守派人士突出了谷歌員工多年前的演講和帖子,作為這些領導人被指是“覺醒”人工智能政策的設計者的可疑證據。馬斯克沒有回應評論請求。
在他突出雙子座的例子的幾天裏,馬斯克還利用這場爭議來推廣他自己的生成式人工智能工具Grok,他將其推銷為對抗“覺醒思維病毒”的解藥 —— 極右派對企業多樣性目標的簡稱 —— 影響其他科技公司。2月23日,馬斯克表示,谷歌的一位高管向他保證公司正在“立即採取行動解決雙子座中的種族和性別偏見問題。”
信號基金會總裁、前谷歌經理梅雷迪思·惠特克表示,聽到這麼多聲音批評谷歌未能通過其產品確保公平代表性,這是一種諷刺。“當你在搜索‘美麗女人’時,搜索結果出現了一頁又一頁的白人女性,這已經是被默認為正常現象的幾十年了,”惠特克説。“我們沒有聽到很多互聯網評論者對這種不平等發出同樣響亮的哭泣聲。”
Meredith Whittaker,Signal總裁,前Google經理,表示聽到很多聲音批評Google未能通過其產品確保公平代表性,這是一種諷刺。攝影師:Zed Jameson/BloombergGoogle內部員工現在擔心社交媒體的攻擊將使負責減輕其AI產品在現實世界中造成的傷害的內部團隊更難以應對,包括技術是否能隱藏系統性偏見的問題。一名員工表示,對AI工具的憤怒意外地使一個在大多數訓練數據集中已經過度代表的羣體被邊緣化,這可能會導致一些Google員工主張減少AI輸出的防護措施或保護措施 —— 如果走得太遠,可能對社會造成傷害。
目前,Google仍處於損害控制模式。2月26日,Google DeepMind研究部門負責人Demis Hassabis表示,公司希望在“接下來的幾周內”重新上線Gemini功能。但在週末,保守派人士繼續抨擊Google,這一次將矛頭對準了Gemini對用户查詢的文本回復。
“Google的屈服只會助長這種在線暴民,而不是平息它,”大西洋理事會的常駐高級研究員Emerson Brooking表示。他研究了在線網絡騷擾的動態。“Google越早認識到這一點,就越好。”