DeepSeek式的AI味,越來越讓人受不了了_風聞
直面派-直面派官方账号-讲述值得讲述的真实故事,直面生活、命运和内心1小时前

我們讓ChatGPT給這篇文章寫了一個開頭:
語言,正在變得越來越熟悉——也越來越陌生。
在我們這個由算法驅動的時代,表達不再只是人與人之間的橋樑,也成為人與機器之間的共鳴器。
當越來越多的人開始使用 AI 工具協助寫作與交流,我們的語言,正在悄然發生變化。不是突然的,也不是劇烈的,而是一種潛移默化的趨同:詞彙變得標準,語氣更趨中性,情緒被規整得恰到好處。
你可能已經察覺到了這一點——一些句子聽起來“哪裏怪怪的”,太整潔,太流暢,太像 AI。
人們把這種風格稱為:“AI 味”。
這不僅僅是一個風格問題,它關乎我們如何看待創作,如何信任彼此,甚至如何定義“人”的表達方式。
於是,一個看似簡單的判斷題浮現出來:這段文字,是人寫的,還是AI寫的?而更深一層的問題也隨之而來:如果連我們自己也開始説得像AI,那麼人類表達的界限,又該如何劃定?
讓ChatGPT用AI味討論AI味,實在是別有一番風味。
別擔心,接下來的正文,都是手打的。如果有AI味,那就正好切題了。
01
“時間的褶皺”
人們已經受不了AI味了。
有人總結出DeepSeek常用詞:拓撲、克萊因瓶、第X根睫毛、青苔、賽博、齒輪、白襯衫……如果有傷口,那一定是“傷口0.01公分”,如果時長三分半,那一定是“持續三分半鐘”,如果出現眼睛,那八成是“暗紅色的瞳仁”。

“一個少女拿着錄取通知書跑下樓”這句話,放到DeepSeek裏洗一遍就變成了:
少女肩胛骨在晨光中震顫如振翅的拓撲曲面,攥着錄取通知書的指節泛起1.7釐米寬的骨白色。她沿着木質階梯向下疾奔,時間褶皺裏翻湧出薄荷糖的量子糾纏——三年前母親在鏽蝕的郵箱前咳出的暗紅色血漬此刻正以熵增速率在記憶裏結痂。通知書牛皮紙的粗糲聲息穿透0.3秒的沉默,將螢火蟲羣般的未來釘死在樓梯轉角蛛網狀的光影中,而鞋跟敲擊聲正把克萊因瓶底的嗚咽壓成十七歲盛夏的標本。
越來越多的人在社交媒體上抱怨,稱網上充斥着“一眼DeepSeek”的文案,讓人“想吐”。他們呼籲博主們不要再依賴AI寫文案了,或者至少潤色一下,讓文案更有人味兒也好。比如有用户評論説,“ds的華麗風,有種無病呻吟的感覺”“在千篇一律的AI文中那一抹人味的獨特審美和思想彌足珍貴”。

DeepSeek的賽博浪漫散文風格尚且有跡可循,其他的常用AI工具如ChatGPT的“味道”則更加微妙。它更偏好結構完整、語氣温和、帶引導性的句子,經常使用“探索”“可能性”“值得注意的是”等模糊但有禮貌的表達。
於是,一場“AI與人的狼人殺”開始了,一邊是不滿處處AI的人當“AI警察”,一言不合就“出警”;一邊是部分被指責是AI代筆的人無辜發言:我真的沒用AI!都是自己寫的!

小紅書用户@椰汁糕不睡了就分享,自己寫的口播視頻文案,因為用了“蜘蛛”這個意象,被老闆指責“你太依賴AI”“我需要一個認真工作、對珠寶有些熱愛、願意瞭解的人,機器人我不需要”。讓她百口莫辯。

但恐怖的是,還有另一些人絕望地發現,明明是自己寫的東西,卻真的隱隱飄出一陣陣AI味。他們在電腦裏輸入“時間的皺褶”,又慌亂地趕緊刪掉。
這實在是一個有意思的現象。
首先,如果AI那麼好用,我們為什麼會那麼討厭“AI味”?
其次,一個人該不該以及要怎麼自證自己寫的東西不是出自AI之手?
最後,我們的語言裏也開始出現“AI味”了嗎?如果是,該去抵抗這種趨勢嗎?
好在,人類總是在思考,有的問題科學家已經開始研究了。
02
你聽起來像ChatGPT
你的感覺沒有錯,我們的語言可能真的在被AI影響。
這一點,英文世界已經有研究可以參考。
加入任何一個 Zoom 會議,或隨便點開一個YouTube視頻,不難察覺到AI語言風格。像“prowess(高超技藝)”“tapestry(豐富多彩的圖景)”這樣的詞,正是 ChatGPT 所偏愛的詞彙,正在悄然進入歐美詞彙庫;而“bolster(支持)”“unearth(挖掘)”“nuance(細微差別)”這些 ChatGPT 不太常用的詞,則使用頻率正在下降。
德國馬克斯·普朗克人類發展研究所的研究人員分析了近28萬個來自學術頻道的YouTube視頻,發現在ChatGPT發佈後的18個月裏,使用者使用“meticulous(細緻)”“delve(深入)”“realm(境界)”和“adept(熟練)”等詞彙的頻率比三年前高出了51%。

值得注意的是,説話的人往往沒有意識到自己的語言正在變化。
而且研究者表示,AI常用詞彙滲透進人類的語言系統,還只是“冰山一角”。
儘管目前的大多數研究仍主要聚焦在詞彙層面,但研究人員懷疑,AI的影響已經開始滲透到表達方式和語氣之中——發言更長、更有結構,以及情緒表達更加剋制。
至於討厭別人用AI,這一點也有相關研究涉及。
康奈爾大學的一項研究發現,當兩個人在文字聊天,一方使用AI來回復,往往效果很好,因為AI給出的回覆是很正面的。但這僅限於一方完全不知道對方用了AI,且對此沒有懷疑的情況下。

一旦一方懷疑或者認為對方用了AI,那完全會起到反效果。研究人員表示:“我們是通過語言線索來感知對方的。”
也就是説,讓語言起作用的,不僅僅是語言本身承載的內容,人們還會從中去尋找其他線索。如果語言出自AI,那麼那個人自己就是“隱身”的,這會讓人覺得喪失了溝通的部分意義。
研究人員進一步指出,AI正在決定什麼是“正確的”“標準的”英語。而當我們周圍每個人的説話都開始聽起來“標準無誤”,我們也就隨之失去了那些口誤、俚語、帶點走音的語句——而這些恰恰是脆弱、真實和“人性”本身的信號。
03
Delve入侵
好,現在我們知道,已經有若干研究在説一件事:ChatGPT有一些偏好,正在侵染人類的語言習慣。
如果我們繼續追問,事情會變得更加有趣——ChatGPT為什麼會有這些語言偏好?
大模型——尤其是早期的大模型——是基於人類的文本進行訓練的。也就是説,喂進去的都是人類的話,為什麼會出來和人類不同的“AI味”呢?
我們可以用Delve這個詞來舉例。
Delve是一個真實存在的英文詞彙,用作動詞時的意思是“深入研究”“探究”“鑽研”。
**在歐美社會,這個詞非常沒有存在感,幾乎無人會在日常使用它。**然而,ChatGPT格外喜歡這個詞。進而,人類也開始更頻繁地使用它。這一點甚至讓一些編輯開始主動屏蔽這個詞,因為它的出現頻率高到“像是一種流行病”。
早在2024年3月,就有人指出在醫學論文中Delve一詞的使用率飆升。從圖表中可以看到,2023年這個詞的使用率突然激增,超過400%,是幾年前的百倍,而ChatGPT是2022年年底發佈的。

但有一個問題一直困擾着機器學習專家:如果ChatGPT是基於人類數據進行訓練的,它怎麼會突然想到要這麼頻繁地使用“Delve”?這是一種自然而然的行為嗎?為什麼偏偏是“Delve”?
彼時,衞報發表了一篇名為《非洲廉價的外包勞動力如何塑造AI英語》的文章,將ChatGPT頻繁使用“Delve”的起源指向了非洲大陸。

不要忘了,大模型的訓練中,少不了人工標註員。
大模型在海量數據上進行數天甚至數週的訓練後,必須採取措施確保人工智能不會偏離軌道。它必須“對齊”。為了實現這一點,需要使用額外的監督學習步驟。於是,人工標註員登場,評估語言模型的輸出。然後,他們的評估結果將用於微調模型。
而這些人工標註員來自何方呢?
將大模型變成一個有用的聊天機器人,需要投入數十萬小時的人工,很自然地,大型AI公司將這項工作主要外包給廉價的地區,尤其是官方語言也是英語的國家。
而非洲,正是這樣一片“沃土”。
《衞報》指出,Delve這個詞,在歐美國家很少被用到,但是在尼日利亞的商務英語中極其常用。
因此,ChatGPT對Delve一詞的偏愛,很有可能(只能説有可能而非全然確定,因為大模型説到底仍然是“黑匣子”)是被非洲人工標註員無意識打上的烙印。
若果真如此,那歐美社會利用非洲廉價勞動力,反過來卻影響了自己的語言系統,實在是讓人感慨。
不管怎麼説,人類與AI的互相影響還將持續下去。如果你很在意人類有“AI味”,也大可以樂觀點,畢竟幾年之後,可能人味和AI味已經不分你我、難以區分了。