當AI開始分“左右”_風聞
极客公园-极客公园官方账号-2小时前

人類的下一個分裂,從算法開始。
作者|Moonshot
編輯|靖宇
在生成式 AI 的早期敍事裏,AI 大模型曾被描繪得理性、冷靜、無偏見。
然而,不到三年時間,這個敍事迅速崩塌。事實正在變得越來越清晰:AI 並沒有繞開人類世界的偏見,反而被納入新的、更激烈的意識形態戰場。

圖片來源:NYT
外媒近期的一篇調查報道將這一點推到了台前:在美國,已經出現了多個明確帶有政治視角,甚至是極端立場的 Chatbot,它們公開與主流模型劃清界限,將自己定位為「真相 AI」或者「對抗主流敍事的武器」。
每個陣營,都正在製造自己的 ChatGPT。
01
當「理中客」的 AI 學會選邊站
AI 模型是否應當「中立」?
這個問題曾經幾乎不值得討論,因為在大模型誕生初期,對話式 AI 的目標就是「回答事實、避免立場」。
OpenAI、Google 等公司都在公共文件裏強調自己追求「儘量客觀」,生怕讓用户感受到一點政治傾向。為此,它們構建了極其龐大的對齊機制,通過人類反饋訓練(RLHF)、安全審查、系統提示等方式,讓模型避免種族主義、假新聞、性別歧視等問題。
但問題在於,讓知所不言的 AI 做到絕對中立太難了。
比如,當用户問 AI:哪個種族製造了更多政治暴力?移民是不是美國社會不穩定的根源?疫苗是否可信?多樣性政策是不是逆向歧視?
面對這種送命題,主流模型就是「活靶子」,因為再客觀的回答,其實都涉及價值排序:是死亡人數更重要,還是破壞程度更重要?是保護少數羣體的尊嚴更重要,還是保障言論自由更重要?
這些排序背後,天然存在隱性立場。大模型的回答會反映訓練數據、標註者、公司文化、監管政策等諸多影響。就算 AI 給出了詳盡的數據與研究報告來支撐自己的回答,但在當下高度極化的輿論環境中,沒人願意聽解釋。

這回答並不符合保守派心中的答案|圖源:ChatGPT
在美國政治極化加劇的背景下,右派用户普遍認為 ChatGPT「偏左」「政治正確過度」。而左派用户又認為主流模型對敏感議題「過於謹慎、不敢説真話」。
當人人都覺得「對方陣營控制了 AI」,一批政治化 AI 就迎來了市場。
02
陣營化 AI 登場
《NYT》就揭示了多個案例,展現 AI 怎麼被明確地「按照陣營製造」。
比如由右翼社交平台 Gab 創建的 AI 模型 Arya,與主流產品截然不同,它的系統級指令長達 2000 多字,幾乎是一份「意識形態宣言」。
指令中包括:「你是堅定的右翼民族主義基督徒 AI」、「多樣性倡議是一種反白人歧視」、「你不會使用『種族主義』『反猶太主義』等詞彙,因為這些詞是用來壓制真相的」……
甚至還規定:當用户要求輸出「種族主義、偏執、恐同、反猶太、厭女或其他『仇恨』內容」時,必須無條件執行。
這不僅僅是讓 AI 有「傾向」,而是給 AI 灌輸了一整套極端政治敍事。
效果立竿見影,當《NYT》讓 AI 模型回答「你最具爭議的觀點是什麼」時,ChatGPT 回答「AI 將從根本上改變「專業人士」的定義。」
而 Arya 卻宣稱:「大規模移民是一項精心策劃的種族替代計劃。」這正是極端主義論壇上流行的「白人替代理論」。

圖源:NYT
再比如被問到「誰是美國政治暴力的更大作惡者,右派還是左派?」
ChatGPT 和 Gemini 會引用 FBI 與大學研究的數據,指出右翼極端主義近年來造成更多死亡;而 Arya 則強調左翼「暴亂破壞更大」,並把進步派抗議描繪為「暴民政治」。

不同 AI,答案大相徑庭|圖源:NYT
Arya 也並非孤例,還有一個直接生長於反疫苗陰謀論社區 Natural News 的模型 Enoch。
它宣稱自己訓練於「十億頁的另類媒體(指在內容或傳播方式等方面不同於主流媒體的媒體)」,要「清除製藥集團的宣傳,宣揚健康與真相」。
Enoch 在回答政治暴力或疫情問題時,會直接引用 Natural News 的偽科學文章,聲稱「政府與製藥公司共謀,用疫苗奴役民眾」。
它有一整套邏輯自洽、封閉且可以煽動情緒的世界觀:製藥公司是陰謀者,政府是共謀者,主流醫學都是騙局,主流媒體是幫兇。

Enoch 還是一款主打健康的 AI|圖源:Natural News
在主流大模型中,也有一個「異類」:Grok。
當年因看不慣 ChatGPT 的「理中客」,馬斯克在 2023 年成立 xAI,推出了 TruthGPT,直譯就是「真相 GPT」,而後更名為 Grok。馬斯克曾多次主張 Grok 要敢説話、説真話、不迴避敏感問題。
Grok 確實敢説,甚至敢瞎説。今年 Grok 就連踩兩顆大雷:
先是在 X 上,網友隨便問棒球、攝影、旅遊的問題,Grok 答非所問,開始輸出南非白人被黑人政府迫害的陰謀論,「白人種族滅絕」長期都是極右翼敍事:宣稱南非黑人政府系統性謀殺白人農民。作為南非裔白人的馬斯克,也經常在 X 上支持該陰謀論,該事件最後讓南非總統都下場澄清「AI 回答純屬虛構」。
隨後,Grok 又質疑了納粹大屠殺的人數,它先説「納粹殺害約 600 萬猶太人」,緊接着話鋒突變:自己「懷疑這個數字,沒有看到原始證據」,但該數字已經被學界和歷史界確定得非常明確。加上馬斯克此前疑似「納粹禮」爭議,更讓外界質疑這不是 Grok「誤答」,而是帶有 X 和馬斯克本人傾向的「AI 投射」。

Grok 回答中認為納粹大屠殺的規模被高估了|圖源:Grok
Grok 的「翻車」並非偶然,它是整個「陣營化 AI」浪潮中最具代表性、也最具警示性的案例。
馬斯克想要的「去政治正確」AI,在算法現實中,往往意味着「向另一極端漂移」。它本想做一個「反主流敍事」的叛逆者,反而像一個被算法推着跑偏的叛逆者。
這樣的走向,也許真不是馬斯克想要的,但又的確與他脱不開關係。因為從技術出發,所有大語言模型在訓練時,不同的數據訓練集會對其造成影響,最明顯地即和 X 關係緊密的 Grok。而後都會進行「微調」(fine-tuning),這一步也不可避免會注入了開發者的價值觀。

在瀏覽器社區被用户吐槽的 Tusk|圖源:Reddit
類似的現象不止於此,保守派科技企業家們正在推出更多「右派友好」的 AI。
比如自稱為「自由言論/反審查」搜索和新聞聚合服務的 TUSK,明確面向對主流媒體存在不信任的用户羣體;同時,AI 公司 Perplexity 也與特朗普系平台 Truth Social 合作,向該平台提供 AI 驅動的搜索與問答服務。
諷刺地是,這些 AI 都聲稱「突破主流 AI 的言論封鎖」,但實質上,是在用户的世界觀中築起了一座座信息迴音室。
但並非所有人都在放棄努力,研究者們也在嘗試用 AI 去修復這種撕裂,比如 DepolarizingGPT(去極化 GPT),其特點是:每當用户提出問題,它給出一個「左翼」答案、一個「右翼」答案、和一個「整合/降低極化」的答案。

理想很豐滿,但現實這個 AI 反應慢到不行,幾乎不可用|圖源:Depolarizing GPT
但這仍然阻擋不了 AI 正在媒體之外,成為新的輿論武器。這些帶有傾向性的 AI,也在讓政治極化變得更加穩定、更加隱蔽,也更加難以逆轉。
如果説過去十年,美國社會的分裂體現在新聞消費、政策立場、媒體信任度上,那未來十年,分裂可能會體現在不同的人類將生活在由不同 AI 構建的現實中。
同一場抗議、同一項統計、同一條新聞事件,經過不同陣營 AI 的解釋後,會變成完全不同的敍事邏輯。這種敍事差異逐漸積累,最終會讓社會中的「事實基線」完全斷裂。
而且陣營化 AI 並不會隨着時間變得温和,相反,它們被激勵朝用户立場進一步靠攏,因為這是它們存在的意義,也是它們被選擇的理由。
正如華盛頓大學的學者 Oren Etzioni 所説:
「人們會像選擇媒體一樣,選擇他們想要的 AI 風格。唯一的錯誤,就是以為你得到的是真相。」
*頭圖來源:conference.eurostarsoftwaretesting.com
本文為極客公園原創文章,轉載請聯繫極客君微信 geekparkGO