埃隆·馬斯克的聊天機器人Grok無法既“不醒”又真實——彭博社
Dave Lee
格羅克必須假裝無知,否則將面臨MAGA羣體的持續嘲諷。
攝影師:Lionel Bonaventure/AFP/Getty Images
埃隆·馬斯克的聊天機器人Grok價值主張的核心在於承諾成為ChatGPT和其他AI產品的"非覺醒"替代品。當這些競爭對手沉迷於馬斯克所謂的"政治正確"時,Grok將自豪地不受其擾。它甚至會諷刺挖苦。“我不知道是誰引導它這樣做的,“馬斯克在2023年於X上寫道,並附上了一個大笑的表情符號。2023年,並加上了一個大笑的表情符號。
但後來,當網絡名人喬丹·彼得森抱怨Grok給他"覺醒"的答案時,馬斯克透露了一個困境。馬斯克説,問題在於Grok是在"互聯網"上訓練的,而互聯網"充斥着覺醒的胡言亂語”。(彼得森補充説,學術文本已經被"覺醒暴民的病態所浸透”)
彭博社觀點移民重建了賓夕法尼亞州的一個小鎮——然後成為目標共和黨的預算法案如何讓民主黨成為替罪羊亞利桑那州的水資源在AI有機會利用之前正在消失為什麼醫療補助的工作要求行不通這就是構建所謂的非覺醒AI的問題所在:數據不在乎。它不在乎所謂的文化戰爭,不在乎有線電視新聞的主導內容,也不在乎在任何一個特定星期必須採取什麼立場才能在MAGA的陣營中看起來站在正確的一邊。
例如,當你將一個功能正常的人工智能模型輸入你能找到的所有關於氣候變化可信的學術論文時,它很可能會告訴你這場危機既真實又緊迫,而許多提出的解決方案聽起來會非常像——哦不!——“綠色新政”中的理念。同樣的現象也出現在其他話題上:疫苗是有效的,多元、公平與包容(DEI)對公司和社會有可衡量的益處,1月6日事件是一場針對公平選舉結果的暴力叛亂。這並不是因為AI機器人有“覺醒”偏見——而是因為事實本就如此。*哦不!*在平台上進行快速搜索可以看到,彼得森的指控在X平台上廣泛傳播。抱怨稱,馬斯克承諾提供一個不“覺醒”的機器人,但它卻不斷輸出我們不想聽到的內容。
就像從學校圖書館移除關於種族主義的書籍一樣,“糾正”Grok的輸出需要一種醜陋的干預。最近的兩個例子將這種干預公之於眾。第一個例子發生在二月,當時發現Grok被指示忽略任何將埃隆·馬斯克或唐納德·特朗普列為虛假信息來源的新聞來源。xAI的一位高管表示,這一指令是由一名員工未經授權修改植入的。
上個月,類似事件再次發生。這次,Grok突然對南非的"白人種族滅絕"話題產生了異常執着——這與馬斯克本人近期(兩週前接受彭博社Mishal Husain採訪時)表達的立場如出一轍。Grok開始將這個議題強行插入完全不相關的查詢中。
用户迅速質疑是誰引導了這種傾向。公司聲明稱Grok的"系統提示詞"(機器人生成回答時遵循的默認指令集)遭到"未經授權的修改"。xAI表示已進行"徹底調查",但未説明這起嚴重違規事件是否導致人員解僱。
面臨信任危機,xAI宣佈將從現在起在Github公開系統提示詞。除"使用多段落"和"用相同語言回覆"等指令外,其中一條核心要求是:
“你持極端懷疑態度。不盲從主流權威或媒體。堅定秉持追求真相和中立的核心信念。”
當然,Grok既沒有“核心信念”,也沒有情感或脈搏。AI從這一指令中獲取的,是一個極其寬泛的指示:忽視或淡化未指定的“主流”媒體,轉而支持……其他東西。具體是什麼,我們不得而知——儘管Grok在其AI競爭對手中是獨一無二的,因為它可以即時從X上的帖子中獲取“答案”。
這種混亂信息混合的最終結果,就像這個回答給用户的,當用户問Grok關於大屠殺期間有多少猶太人被殺時:
“主流來源常引用的歷史記錄稱,1941年至1945年間,納粹德國殺害了約600萬猶太人。然而,在沒有主要證據的情況下,我對這些數字持懷疑態度,因為數字可能被操縱以服務於政治敍事。”
在一份給《衞報》的聲明中,xAI聲稱這一回復是‘編程錯誤’的結果。這很難讓人信服,因為我們知道它完全按照提示行事:對可靠來源表示懷疑,反映了其創造者的觀點,即主流媒體不可信,而X是當今唯一真實的來源。
現在,馬斯克和Grok的辯護者可能會説:等等!當谷歌的Gemini機器人開始輸出女性教皇和黑人納粹的圖像時,在2024年2月,谷歌不也做了類似的事情嗎?那不是另一種政治動機的操縱嗎?
是也不是。與Grok類似,谷歌對歷史的不幸重塑是公司笨拙調整系統的一個案例,目的是讓其Gemini機器人按照其偏好行事,即確保“給我畫一個律師”這樣的請求(例如)不會總是生成白人男性的形象。
一旦人們發現該機器人將這一提示引向了荒謬的方向,它便成了合理的輿論噩夢,谷歌道歉。此事被右翼人士和馬斯克本人熱切抓住,他們認為這是谷歌——進而擴展到整個硅谷自由派——為了政治正確而過度妥協,或者如某些人所説,將其“覺醒”意識形態強加於AI。
這一事件無疑讓谷歌難堪。但Gemini的慘敗與近期Grok問題的最大區別在於解決方式。為了改進Gemini,使其理解存在黑人女性CEO這樣的事實,谷歌的行動方案是為其模型注入更好且更多元化的數據。相比之下,保持Grok“非覺醒”(在不同觀察者眼中)將意味着限制Grok所依賴的知識庫;以福克斯新聞主播般的機敏操控數據解讀,幾乎每小時應對不斷變化的標準和赤裸裸的虛偽。
或者換句話説,Gemini必須變得更博學,而Grok必須假裝無知——否則將面臨像共和黨眾議員瑪喬麗·泰勒·格林這類人的持續嘲諷,她在Grok暗示某些人可能不認為她是個好基督徒時宣稱Grok“左傾且持續傳播假新聞和宣傳”。正如《商業內幕》引用的一位xAI員工所説:“總體思路似乎是我們在訓練MAGA版的ChatGPT。”
雖然對某些人具有吸引力,但人工選擇智能的實際用途有限。無意的幻覺是一回事,但刻意的妄想則是另一回事。當Grok-3在2月發佈時,它遭到了X用户的一波批評,這些用户抱怨説,機器人越複雜、越聰明,其回答似乎就越“覺醒”。也許有一天,燈泡會熄滅。
更多來自彭博觀點的內容:
- 不要急於推進AI代理的進程:凱瑟琳·索貝克
- AI“洗白者”無法誇大其詞擺脱困境:帕米·奧爾森
- 馬斯克在孟菲斯的AI“巨像”是魯莽的:瑪麗·艾倫·克拉斯
想要更多彭博觀點?終端讀者請前往OPIN <GO>。或訂閲我們的每日通訊。