劉純懿 胡泳 | 人機逆轉、敍事僵死與無事實時代——生成式革命的影響與危機_風聞
探索与争鸣-《探索与争鸣》杂志官方账号-昨天 21:49
劉純懿 | 北京大學新聞與傳播學院博士研究生
胡泳 | 北京大學新聞與傳播學院教授
本文原載《探索與爭鳴》2024年第1期
具體內容以正刊為準
非經註明,文中圖片均來自網絡
隨着ChatGPT的盛行和國內外互聯網公司對智能對話、人機交互技術的追捧,生成式人工智能(generative artificial intelligence)革命已悄然來臨。這場以聊天機器、智能生成、人機交互為表徵,以深度學習、訓練數據、大語言模型為技術內核的變革,不僅在重塑由技術驅動的產業格局,更在改寫人工智能乃至整個科學領域的研究範式。同時,圍繞生成式AI產生的一系列新媒介、新應用、新工具也在豐富着社會文化的表達形式和技術哲學的內涵**。面對這一輪技術革新的浪潮,我們需要深入思考它生成了什麼,又警示着什麼,這是人類面對日益智慧的機器時迫切需要思考的問題。**

生成式AI從何而來
(一)生成式AI的史前史:範式之爭與人工智能分水嶺
在人工智能誕生和發展的過程中,符號主義(symbolicism)和聯結主義(connectionism)作為兩大主要範式貫穿在智能技術的演進歷史中,而何種範式佔據上風則直接決定着人工智能在不同時期的代言者和標定物。
早期人工智能的諸多進步都是在符號主義的範式下進行的,符號人工智能(symbolic AI)相信通用智能完全可以通過正確的符號處理程序來獲得,它主要應用於創建思維模型,並最終導向不同類型的邏輯推導,其宗旨是力圖用數學邏輯解決通用問題。20世紀80年代,符號人工智能大行其道,它使用邏輯編程、產生式規則、語義網絡和框架等工具,開發了基於知識的系統、自動化的計劃和調度系統等應用。符號人工智能範式在搜索、符號編程語言、代理、多代理系統、語義網絡以及形式知識和推理系統等方面產生了開創性的想法,更重要的是,**在符號主義的影響下,人工智能1.0階段的核心特徵得以確立,那就是對“專家系統”的依賴。**符號人工智能對信息的處理是通過專家系統進行的,它包含“如果/那麼”(if/then)配對,以此指示算法如何行動。由此可見,符號主義範式的特點是“自上而下”,其基本思想是以計算機形式獲取人類專業知識,並將其作為程序播散到成千上萬的個人計算機上。**但很快,符號人工智能就暴露出缺陷,即真正學習的有限性。**1984年,約翰·麥卡錫曾批評人工智能的專家系統缺乏常識和對其自身侷限性的瞭解。人工智能也因此在20世紀90年代陷入發展的寒冬。
**人工智能發展的分水嶺伴隨着範式轉型而到來。近十年來,基於海量數據和新算力的綻放,研究界和企業界對人工智能(尤其是機器學習這一子領域)的狂熱興趣直接帶來資金和投資的急劇膨脹,由此形成了一直延伸到當前人工智能熱潮的研發脈絡,而主導這一發展浪潮的範式正是聯結主義。與符號主義自上而下的專家系統不同,聯結主義採用的是自下而上的學習邏輯。**聯結主義以其最成功的技術——深度學習和深度神經網絡而聞名,而深度學習和深度網絡正是絕大多數機器學習系統背後的架構,也是今日生成式AI革命的關鍵詞和核心技術。基於聯結主義的人工智能克服了符號人工智能在學習上的侷限。如果説符號主義是從更高層次的思維概念着手,那麼聯結主義則是在力圖模仿大腦,創建可以“學習”並從大量數據中識別模式的自適應網絡。聯結主義假設,通過足夠複雜的網絡和足夠的數據,我們可以實現相當於更高級別人工智能的功能——對真實思維的臨摹與創造。
**聯結主義範式下的人工智能跨越了以專家系統為標識的1.0階段,邁向以神經網絡為核心的人工智能2.0階段。**在這一階段,工程師不再像專家系統那樣對規則進行編碼,而是讓計算機在大量數據的基礎上,通過關聯和分類來發現規則。不管是2012年多倫多大學的計算機科學家亞歷克斯·克里澤夫斯基(Alex Krizhevsky)設計的卷積神經網絡(convolutional neural network,CNN)AlexNet在ImageNet競賽中獲得勝利,還是2016年DeepMind(現為Google子公司)創建的AlphaGo在五場比賽中以4比1的比分擊敗了世界圍棋冠軍,近年來一系列人工智能發展的里程碑事件都在宣告:神經網絡——通過分析數據學習技能的數學系統——是下一步前進的方向。
在人工智能2.0時代,計算資源的民主化和可獲得性解決了神經網絡的計算密集型問題,同時,訓練神經網絡所需的大量數據的可用性、深度學習的突破以及使用GPU的速度提升,作為基礎性條件使得神經網絡的發展和生成式AI時代的到來成為可能。換句話説,如果沒有廉價的存儲芯片、GPU的速度以及來自互聯網、移動設備的海量數據,就不可能有今天的神經網絡。從本質上講,人工智能的發展速度與計算機硬件、軟件的發展幾乎同頻而行。
在生成式AI過去十年的發展歷史中,深度學習已成為人工智能最具影響力的研究領域和實踐方向。然而,聯結主義範式也在人工智能的應用過程中暴露出諸多缺陷,比如,數據效率低下,神經網絡需要大量的訓練數據才能發揮作用;泛化性較差,神經網絡一旦接觸訓練分佈之外的數據,就很容易出現災難性的失敗;更令人擔憂的是,聯結主義缺乏被許多人認為是絕對必要的東西,即可解釋性。當今的神經網絡通常是技術黑箱,建基於聯結主義之上的人工智能系統的本質是:儘管它們具有強大的功能和性能,但它們在邏輯上是不透明的。人類幾乎不可能完全理解系統為什麼作出某些決定。在缺乏任何可識別或可驗證的邏輯序列的情況下,人工智能系統有可能進行潛在的災難性決策,這些決策極難糾正且難以獲得完全的信任。對於一個需要某種共同的倫理框架和價值觀的智能化社會來説,在追求技術不斷精益求精的過程中,透明度也一定不可或缺。在對智能技術透明度的渴求下,梳理生成式AI的關鍵特徵,釐清“生成”的內涵和“生成”的機理,則是向技術黑箱宣戰的第一步。
(二)生成式AI的特徵:何為“生成”與何以“生成”
在2010年,生成式AI被描述為:“一門關於模型自動化工程的科學,它涉及思想的自主構建,它涉及思維的腳手架,它在機器中產生主觀性。它需要一套不同於經典人工智能(classical artificial intelligence,CLAI)的工具和概念,到目前為止,經典人工智能幾乎構成所有人工智能。一般來説,生成式AI也不同於分析科學。這並不意味着生成式AI中沒有分析。生成式AI中的概念和工具集建立在科學家目前可用的集合之上。” 所謂“模型的自動化”“思維的自助構建”和“機器產生的主觀性”都指示着生成式AI不再是一個變動不居的機器實體,而成為一種自動化模型構建和測試的過程。因此,如果機器人想要表現出持續學習的能力,那麼生成式AI當之無愧是創建機器人大腦基礎的最佳之選。借用伊利亞·普林高津(Ilya Prigogine)對科學範式革命的觀察,生成式AI的技術哲學是關於“成為”(becoming),而不是“存在”(being)。

伊利亞·普林高津
**在對生成式AI的當前定義和理解中,一種常見的思路是將生成式AI與之前的AI類型進行對比,以此來理解生成式AI的突破性。**國外有研究對比了經典AI和生成式AI的區別:**經典AI通常是對最終狀態的一種優化,並且結果是可預測的。**在培訓和執行階段,該系統包括輸入、過程、輸出三個階段。“過程”部分是一個手工製作或經由學習的實現模型。**而在生成式AI中,通過相空間(一個用以表示某一系統所有可能狀態的空間)遵循的路徑取決於系統的內部動態及其與環境的相互作用。**模型是自動創建和測試的,創造過程是可以控制的,但結果在某種程度上是不可預測的。經過艱難的探索,系統可能會進入一個更好的能量狀態,其解決方案與之前會有質的不同(好比手寫複製向書籍印刷的過渡)。總而言之,系統在執行過程中進行學習。正因如此,**經典AI經常表現為一種穩定的平衡的狀態,而生成式AI則更多具有流動性、敞開性和交互性。**這再一次印證了生成式AI是“成為”而非“存在”,是“過程”而非“對象”。
既然生成式AI本質上是一種生成的技術,那麼理解“如何生成”則成為探討生成式AI的必要步驟。實際上,**生成式AI有兩種主要的生成模型的範式,第一種是生成式對抗網絡(generative adversarial networks, GAN)****。**GAN是由伊恩·古德費羅(Ian Goodfellow)等人於2014年提出的一種無監督學習方法,也是人工神經網絡在分類、預測和解決問題方面最成功的發展之一。GAN由生成器(generator)和判別器(discriminator)兩個神經網絡構成,兩者在它們之間的持續聯繫中共同發生作用。通俗一點説,當生成器創建新樣本時,判別器會判斷這是一個真實的樣本還是一個偽造的樣本。當這兩個網絡一起訓練時,生成器負責生成逼真數據以“欺騙”判別器,而判別器則要提高精準度以識別這種“欺騙”。**第二種生成模型範式是變分自動編碼器(variational autoencoder,VAE),該模型由編碼器(encoder)和解碼器(decoder)構成。**與GAN一樣,VAE同樣需要訓練出生成模型,二者不同的是,GAN是通過“對抗”的思維來尋找平衡,而VAE則是運用概率的分佈來找到函數的最優解。
根據對生成式AI之“生成”的內涵與機理的剖析,生成式AI的“自動化”特性也就得以顯影,即在不需要人類參與的“去人化”環境之下,如何通過機器內部的自我對抗和自行運算來達到以假亂真的“後真實”效果。正因如此,生成模型誕生以來就廣泛存在於諸多為人所熟知的應用層面,比如AI換臉、高清重建、黑白電影上色等。然而,自動化和自動生成遠非人們對人工智能的全部期待。實際上該詞語的結構組成已經將謎底寫在了謎面之上——“人工”先在於“智能”,因此不管是判別器和生成器、解碼器和編碼器,**在這些機器內部的二元結構中,始終呼喚和渴望着第三元的出現,即“人”的參與和反饋。**正因如此,GPT走向了ChatGPT,生成式人工智能進階為對話式人工智能,聊天機器人也被推向了人工智能浪潮的台前,成為今日生成式AI的代表與發言人。

ChatGPT 官網截圖
(三)生成式AI的今日浪潮:為什麼是聊天機器人
當下對人工智能和生成式AI的討論熱潮肇始於ChatGPT的問世,人們起初驚歎於ChatGPT與人類對答如流的能力,並將其視為科幻電影《她》(Her)中高度擬人的AI的現實對照。而比ChatGPT的“智慧”和“語言能力”更具啓發意義的是該應用背後所依託的Transformer架構。該架構在2017年由Google Brain團隊提出,它最早被應用於自然語言處理(natural language processing,NLP)中。與傳統的NLP所採用的循環神經網絡(recurrent neural network,RNN)不同的是,Transformer支持多詞並行操作,因而計算效率得到大幅提升,同時解決了RNN一直以來的“長期依賴問題”(在處理長文本時會喪失之前所學的信息,因而難以進行一步優化)。而Transformer的突破點在於它引入了一種“自注意力”(self-attention)機制,藉助這一機制,Transformer奠定了大模型領域的主流算法基礎,並從2018年開始帶動大模型的迅速流行和模型參數的指數級增長,這也是谷歌所宣稱的 “注意力即全部”(attention is all you need)的意涵所在。
**這種“預訓練+微調”大模型首先在大數據集上訓練得到一個具有強泛化能力的模型,然後在下游任務上進行微調,該模型解決了人工智能1.0時代的模型碎片化、AI泛化能力不足等問題。**正是由於Transformer的高效性,該架構迅速從自然語言處理模型擴散開去,延伸到文本、語音、圖像分析等眾多領域,其中就包括在生成式AI以及今天人們熟知的GPT中作為訓練架構的應用。
從2017年穀歌提出Transformer架構,到2018年OpenAI公佈了第一個將Transformer架構與無監督預訓練技術相結合的模型GPT-1;從2022年ChatGPT正式推出並引入“人類反饋強化學習”(reinforcement learning from human feedback,RLHF),到當前GPT-4的更新並表現出人類的專業水平和學術基準,比如在律師資格模擬考試取得前10%的成績,等等,通過一窺ChatGPT的誕生與演進之路,我們可以總結出對話交互型的生成式人工智能所具有的特點。一是規模化,從GPT-1到如今的GPT-4,每一次迭代都伴隨着神經網絡層數的加深和訓練樣本量的加大,而Transformer的層數越深,就意味着模型的邏輯推理能力越強,同時,數據規模意味着機器獲得了極其廣博的閲讀量,包括書籍、報告、論文等。二是模塊化,ChatGPT 支持根據任何指定的提示以任何術語和主題生成文本,模塊化架構使其能夠執行各種任務,包括問答、機器翻譯、語言建模等,同時模塊化也有助於ChatGPT增強可擴展性。三是依賴性,ChatGPT是高度依賴語料的人工智能,預訓練模型通俗來講就是對人類知識資料的提前學習,人類的知識和經驗都沉澱在模型的參數以及參數與參數的組合之中,得益於此,ChatGPT才能具有強大的推理、分析和寫作能力。同時,不可忽略的一點是,來自人工的數據標記也是ChatGPT整體模式中的重要環節,因此可以説:“無人則無機器,無人工則無智能。”
以ChatGPT為代表的聊天機器人(chatbot)之所以成為生成式AI的一大實踐領域之一,同時也成為生成式AI實現大眾化和產業化的有效進路(包括Google,Meta,OpenAI在內的科技公司都將其視作戰略開發重點),其中一個原因是**ChatGPT等聊天機器人回應着早在人工智能得以命名之前圖靈就曾提出的人工智能母題——“機器會思考嗎?”**實際上,在ChatGPT問世之後,這個問題似乎得到了回答,有研究提出了關於ChatGPT的三個主要論點,其中第一條就是:ChatGPT的行為是如此複雜,以至於普通的思維概念在區分人類行為和ChatGPT的行為方面不再有用。我們對人類或ChatGPT在做什麼並沒有明確的瞭解。

圖靈及其提出的人工智能母題
**情況的確如此,ChatGPT有一項能力是以往的語言模型難以達到的,即思維鏈能力(chain-of-thought,CoT)。**思維鏈被認為是人類高級智慧的象徵。思維鏈能力代表着除了簡單的表面理解和直接給出回答之外,還具備複雜的邏輯推導和歸納總結的能力。這種思維鏈能力的獲取得益於GPT-3模型訓練的數據從GPT-2的書籍、論文擴展到代碼,代碼的加入不僅使GPT具有了代碼寫作能力,更重要的是因為代碼寫作背後需要強大的邏輯關係,因此當使用代碼來訓練機器時,機器的邏輯能力也得到提升。研究者曾比較OpenAI的text-davinci-003和GPT之前版本的知識工作能力,結果顯示從text-davinci-001到text-davinci-003,GPT-3在記憶和理解以及應用技能水平上已經接近人類水平。於是,當ChatGPT以其日益精進的思維鏈能力跨時代地回答着圖靈提出的有關機器和人腦的經典問題,那麼更進一步的問題應該是,當機器愈來愈趨近於人腦或者比之更甚,這時它將生成什麼?這些生成的新事物又將對人類社會產生怎樣的影響與挑戰?
生成式AI生成了什麼
(一)新內容:從UGC到AIGC
生成式AI的重點毫無疑問是“生成”二字,而生成式技術最先攪動的是互聯網的內容生態,於是互聯網內容繼PGC、UGC和PUGC之後開始擁抱另一種內容生成方式——AIGC(AI generated content)。在中國信息通信研究院2022年發佈的《人工智能生產內容(AIGC)白皮書》中有對AIGC三個歷史沿革階段的梳理,在這份梳理中我們不難看出AIGC的外延極其廣闊,它不僅包括近兩年伴隨着深度學習技術而出現的人工智能撰寫小説、人工智能繪製圖片等,還包括20世紀50年代最早的計算機創作音樂作品、人機對話機器人等。於是對AIGC的定義就出現兩種方式:一種是從廣義上,機器參與創作就可以稱為AIGC,而這種定義方式雖然有助於對AIGC進行媒介考古學意義上的脈絡回溯,然而在具體的問題討論上則有過於寬泛之嫌,因此另一種定義方式更清晰地指明瞭AIGC作為新技術之“新”——即依託深度學習技術,以大語言模型為基礎,通過採取“大數據預訓練+小數據微調”的方式實現的人工智能自動化生成內容。
**實際上,即使按照狹義的定義方式來考察AIGC,這一新事物也早在生成式AI和ChatGPT在用户層面流行之前就已經被討論和應用。**2018年,一幅名為《愛德蒙·貝拉米肖像》(Portrait of Edmond Belamy)的人工智能生成式繪畫在紐約拍賣會上進行拍賣,並最終賣出了43萬美元的高價,這是人工智能生成式藝術作品首次登上拍賣的舞台。這一事件的本質是在為AIGC賦予藝術價值,而支撐這幅畫完成的底層技術正是前文提到的生成式對抗網絡。該圖像通過一種GAN算法生成,這一算法又是在在線藝術百科全書 WikiArt 中的 15000 幅肖像畫集上進行訓練的,這些畫的時間跨度為 14 世紀到 19 世紀。藝術從此成為人們想象AIGC的主要方式。包括不久前我們討論AIGC的新技術場域還停留在元宇宙、開放遊戲、虛擬現實等,它們本質上都是具有視覺偏向和圖像偏向的媒介,依託這些以視覺為主的新媒介而對AIGC進行定義和理解也難免出現感知結構上的偏頗,比如此類描述:“AIGC是基於視覺語言多模態基礎模型產生的,它學習潛在空間中圖像和文本的一致表示。基於這些技術,沒有專業技能的普通人也可以自己獲得藝術圖像。有些人工智能生成的照片甚至無法與原來的照片區分開來。”一方面受視覺文化佔據主導地位的影響,另一方面受到新技術和新媒介自身攜帶的感官偏向的影響,人們早期對AIGC的討論和關注都集中在藝術、視覺、圖像層面,而這種思維慣性一直延續到今天。

人工智能生成式繪畫《愛德蒙·貝拉米肖像》
然而,這種對AIGC的簡化理解將被生成式AI的技術功能和多模態大模型更改。對比此前被稱為“預測機器”(prediction machines)的分析式AI,我們會發現**兩者社會功能的差異性:如果説分析式AI的應用主要集中在幫助人們進行預測,提升決策效率,那麼生成式AI的使命則是通過使用經過訓練的數據創建新的內容。**這些經由人工智能模型生成的包括文本、圖像、音樂、自然語言在內的數字內容就是AIGC。實際上,數字時代的“內容”,從誕生之日起就作為一個統攝性的概念而被置於實踐當中,而內容的統攝性恰恰來自網絡媒介的統攝性。到了生成式革命的語境中,網絡媒介的統攝性特徵具有了新名詞——多模態,指多種模態的信息,包括文本、圖像、視頻、音頻等。多模態需要解決的問題就是這些不同類型的數據的融合問題,例如通過NLP的預訓練模型,可以得到文本的嵌入表示,再結合圖像和視覺領域的預訓練模型,可以得到圖像的嵌入表示。同時,音頻的生成也是AIGC的重要一環,在視覺媒介與聽覺媒介中間進行文本的轉換和結合也是對AIGC多模態能力的一種考驗。
AIGC的多元化應用取決於生成式AI的多種底層技術,包括計算機視覺技術、自然語言處理技術、其他單模態技術、多模態技術。**多種技術的綜合使得AIGC的“生成”具有了三重內涵,即數字孿生、智能編輯和AI創作。**這三大能力反映到AIGC產業鏈的下游就表現為:對數字內容進行智能增強以修復原始內容的缺失和損壞;對數字內容進行智能轉譯,比如字幕合成、內容類型的相互轉化;通過對語義的理解形成摘要;通過屬性控制技術實現智能圖像編寫、智能調音;以及人們樂此不疲地讓GPT根據文字描述來形成圖像,這實際上是一種概念型創作。與之相對應的還有模仿型創作,前文所提到的肖像畫就是模仿型創作的典型例子,即依託人類文明中現有的相關文本進行模仿學習,直至創作可以通過視覺圖靈測試的作品。
然而,新的內容生成模式必然攜帶着新的社會問題,在AIGC所藴藏的強大的內容生產能力的背後是生成式AI的三大數字讀寫能力,它們分別是:信息讀寫能力, 數據讀寫能力和隱私讀寫能力。也就是説,AIGC的“寫”高度依賴於“讀”,AIGC的內容生產全然無法離開它對人類語料的學習,這裏的語料包括人類的知識、信息、數據,甚至還有隱私。因此,前人工智能時代的一系列問題諸如信息安全、數據安全、隱私安全等並不會因為機器的自動化程度加深而得以解決,甚至還可能伴隨着訓練數據權重的上升而有加劇的風險。另外,需要注意的是機器的自動化高度依賴於人類的設定和編程,這是計算機誕生之初科學家們對機器的理解,並且在某種程度上依然適用於GPT時代所謂“智能”的定義。因此,在機器自動化神話的背後始終有交互的關鍵參數存在,於是新內容的背後存在着另一個維度的問題,那就是AI作為界面所創造的新的界面文化和技術哲學。
(二)新界面:從“連接”到“脱節”
生成式AI雖然在更多時候被理解為一個模型、一套系統,甚至是又一個技術黑箱,但是**就其與人類的互動關係而言,生成式AI應該被放置在界面以及界面文化的框架中進行分析和討論。**而所謂界面的框架,**最具有啓發性的一點在於該理論強調技術與文化的關係和融合。**對如今的技術文化和人工智能文化影響深遠的是兩種界面美學,它們都誕生於20世紀80年代,其中一個是以1982年的《銀翼殺手》(Blade Runner)開啓的未來主義反烏托邦(futuristic dystopia)美學,這種科技暗黑風被此後一系列描繪人工智能的影視作品所採用;另一個是1984年蘋果公司的Macintosh電腦代表的清晰的具有功能性的美學。今天,在生成式AI和聊天機器人身上依然可以看到這兩種界面文化的影子:人類對機器的沉迷和人類對機器所賦予的情感是人工智能2.0時代的新型“戀物癖”,人類藉助機器來執行具體的任務,而機器以其湧現能力完成總結、歸納和梳理是生成式AI獨有的功能。於是,列夫·馬諾維奇(Lev Manovich)的論斷在生成式革命的進程中依然有效——“所有的文化,不管過去的還是現在的,都要經過計算機特有的人機交互界面的篩選”。

電影《銀翼殺手》海報
**界面文化作為工業化的產物,必然伴隨着經濟結構的變化而出現內涵外延的更新。**從工業革命到信息技術革命,界面文化的重心發生了轉移:在以生產為中心的工業文化中,在界面中發生的是“人適應機器”;而在以消費社會為特徵的後工業文化中,在界面中發生的是“機器適應人”。然而,在人工智能2.0時代,情況又發生了變化,因為生成式AI的出現,生產和消費的界限再一次模糊。ChatGPT實現了搜索引擎和生產工具的結合。2023年3月21日,微軟宣佈將AI生成圖像工具Bing Image Creator集成至新版Bing搜索引擎和Edge瀏覽器中,該工具由OpenAI的圖像生成器DALL-E模型提供支持。目前,Microsoft Edge成為第一個也是唯一一個集成了AI圖像生成工具的瀏覽器。眾所周知,傳統的搜索引擎是按“點擊”來收費,而當智能機器已經把所有結果都總結好並匯聚成一種答案時,“點擊”就不再必要了,這意味着新的搜索引擎商業模式將會出現,因為ChatGPT們帶來的新型經濟形態是“瀏覽即生產,生產即消費”。
**新的商業模式帶來新的人機關係結構。**在新界面產消模式下,對“滑動”和“點擊”等動作的移除也是對人類“選擇”和“篩查”等思維過程的移除。ChatGPT們的“貼心”和“有求必應”的背後是對惰性思維的培養,當ChatGPT們越來越精準和直接地提供人類問題的答案(以往的搜索引擎至少還需要人類進行篩選、學習和總結),人類的自主思考能力正在減弱;或者,毫不誇張地説,機器的思維鏈能力正在剝奪人類的思維鏈能力,人類正在被智慧的機器降維至思想上的巨嬰狀態。而比將“個體巨嬰化”更可怕的是這種人機關係也正在助長一種“他者客體化”的思想趨勢。智能機器的擬人化和聊天機器人的工具化正在加劇這樣一種心理狀態,即他者存在的意義是之於“我”的意義。“人工智能的他者化”同時導向“他者的機器化”,而與聊天機器人的“連接”越多,與其他人類主體的“脱節”也越深。當個體用以“我”為中心的提示詞餵養出一個專屬於“我”的聊天機器時,這個有着深度學習能力的人工智能便構成了“我”的自我鏡像,於是對鏡自照的那喀索斯寓言便成為人工智能時代的個體結局——在一次次對鏡自照中,失去與他者的連接,走向自戀的同時也走向自毀。
事實上,今日的屏幕無論從媒介物質意義上還是從媒介文化心理意義上,都是一面鏡子,而到目前為止,**ChatGPT們依然依託電腦屏幕、手機屏幕等屏幕界面與人發生交互。**媒介理論家弗朗西斯科·卡塞蒂(Francesco Casetti)曾這樣理解今日屏幕媒介的變化:之前媒介是探索世界和促進人與人之間對話的工具,是對現實和其他人進行調解的工具,而今天的新屏幕與一個連續的數據流相連接,但它並不必然與一個專注的凝視、一個要求被見證的世界或一個反射的主體相耦合。這是一種聯繫,也是一種脱節。在我們所在的地方,一組數據永遠可用,但這並不一定會讓我們找到一個穩定的參考、一個可靠的地址和一個完整的身份。屏幕媒介與生成式AI的結合正在對卡塞蒂的這一論斷構成一個最形而下的例證:ChatGPT們回應着來自現實空間的問題,卻並不抱以抵達現實的承諾,當人類越來越沉溺於與機器的問答、對話甚至調情,人與人之間的溝通和連接就越來越稀少和微弱。以聊天機器人和生成式AI構成的新的界面哲學不僅正在剝奪人們的主體性和人與人之間的主體間性,也正在改寫着人與機器之間的傳統關係,這即是新界面令人歡呼的趣味性和便利性的表面背後對“關係”的改造。
(三)新關係:從“借‘人’思‘機’”到“借‘機’思‘人’”
**早在人工智能誕生之前,人們對數字計算機的理解就從自身的結構和經驗出發,最經典的例子就是關於“機械大腦”“電子大腦”的隱喻。**有人評價電子通用計算機的先驅巴貝奇分析機(Analytical Engine):“分析機從來不主張具有任何原創的能力。它能做的只是我們知道如何命令它執行的事情。”圖靈也對此論斷予以補充,“如果任何機器都可以被描述為大腦,那麼任何計算機都可以被描述為大腦”。這種堅持以人類為主體而反身定義和理解機器的範式一直延續到人工智能發展初期。人工智能概念的提出者麥卡錫在2007年如此描述人工智能和人類的關係:“人工智能與使用計算機來理解人類智慧的類似任務有關,但人工智能不必將自己侷限於生物學上可觀察的方法。”通過這個描述我們可以發現,在人工智能1.0時代,機器依然被看作是對人類智慧的理解而非顛覆,是對人類大腦的依賴而非替代。然而,不同於早期的分析機和計算機時代,人工智能已經開始有溢出人類乃至生物學邊界的傾向。

巴貝奇分析機
**如果説,經典人工智能依然保留着人類科學的人機關係模式,那麼生成式人工智能則被視為邁向“後人類科學”的下一步,即一種不依賴或者更準確地説不主要依賴/不完全依賴人類的努力而發展的科學。**此前人工智能領域的系統往往被理解為是封閉的,其封閉性在於新屬性出現的可能性較低,即使存在這種靈活性和變動性,那也只是機器背後的創造者希望找到的解決方案嫁接給了機器,這才為其賦予變化的可能。換句話説,機器不過是人類的附庸和思維的外顯。有研究者斷言,如果延續這種方式,那麼大概率在人類的時間尺度上不會產生智能機器,因為對於每一個小問題,都必須有人以軟件的形式創建新的解決方案。
**生成式AI則不然,它是一個具有開放性的系統,其開放性源自一個能力——“湧現”(emergence)。**湧現在物理學、生物學和計算機科學等領域已經被討論了很長時間。所謂湧現就是系統的數量變化導致行為的質量變化,這種湧現能力是一種大語言模型所特有而小語言模型不具備的能力。這種由量變產生質變的能力往往與兩個概念相聯繫,那就是交互和自組織,湧現的可能性依託於系統內部各個模塊的交互、系統與環境的交互以及系統的自我組織。實際上,對於生成式AI,有研究者提出一種不同於以往的最新科學範式——新控制論(neo-cybernetic)來對其進行解釋和研究,而“湧現性”正是新控制論範式試圖引入的概念,為的是解決以往人工智能的問題,旨在用於自主動態進化的過程屬性,而不是完全的手工製作和連續的工程系統。
將具有湧現性特徵的大語言模型和生成式AI視為下一階段人工智能的主要想象方式和目標路徑,那麼此前以人類的器官作為機器的隱喻便不再適用,人類不再是思考和解釋機器的唯一框架,相反,人類需要藉助機器的新特徵和超能力反觀人類自身,反問我們作為人類的“人”性和獨特性究竟在哪裏**。**於是我們就陷入一個古老的爭論——自由意志與決定論,人類的意願、意志和行為究竟有沒有自由,我們是否擁有稱之為“自我決定論” 的能動性並以此將人類與機器區分開。畢竟當生成式AI以人類的提示詞為思考、學習和生成的發起原點時,人或自我作為一種能動的實體,其特殊之處在於能主動發起履行某種行為,自我的這種發動無需先前具備某種更充分的條件。而這種無需“提示詞”的特殊因果關係(或非因果關係)是人工智能至今仍無法解決和履行的“程序”。
**當人工智能越來越“智能”,當機器越來越“擬人”,AI的存在就成為人類反觀自身的一面鏡子——“人”與機器的區別在哪裏?“我”的主體性又該如何確立?**這是人工智能時代每個人都將面對或正在面對的身份焦慮,它既表現為對人工智能替代人工減少工作機會的恐慌,也表現在科幻電影中機器人具有了自我意志後對人類文明佔領和摧毀的寓言。於是,那個經典的問題——“忒修斯之船”再度橫亙在人類面前,只不過是以更加隱蔽的方式。畢竟,ChatGPT們相比聳人聽聞的腦機接口和基因編輯等直接改造人的技術而言更顯“無害”和“可愛”。然而人們卻容易忽略,對機器進行改造的同時,人類也在完成自我改造,在人機交互過程中,人類永遠無法置身事外。
在人機關係中,有一個常見的表現意象極具隱喻性和症候性,那就是西斯廷教堂上方的巨幅天頂名畫《創世紀》中最有名的一幕——上帝與亞當手指相觸,被人工智能宣傳者改為AI與人類手指相觸。AI佔據上帝的位置成為這個時代的“新神”,人類自以為創造了人工智能,實際上人工智能正在扮演上帝的角色,將思想和身份賦予人類,在後人類的賽博格化中抹除人的自我。於是,主奴辯證法在人機關係中得到調轉,但不容樂觀的是,這位“新神”並非如其宣稱的那般博愛、智慧與可靠。

“AI與人類手指相觸”的圖景
生成式AI警示着什麼
(一)技術非中立:ChatGPT的傾向與數據依賴
**一項新技術自誕生之日起,關於它的傾向性問題就一直是爭論的焦點。**實際上,技術與價值的關係是一個老生常談的命題,而技術中立論作為思考技術和價值的關係的一個最著名的論點,也在人們與技術的一次又一次交鋒與互動中被祛魅與推翻。**經典的技術中立論有四個論據:**技術是一種純粹的手段,它可以被應用於任何目的;技術與政治之間並無關聯,技術與社會和政治因素無關;技術的底層基礎是因果關係,因此技術具有真理的理性和普遍性;技術的標準化可以用於不同的情境之下。然而,生成式AI和ChatGPT 的技術機制與表現完全顛覆了技術中立論論證過程中的邏輯鏈條,雖然人工智能依然是以科學的因果關係搭建起技術的框架,然而ChatGPT在一次次問答過程中所表現出的偏向還是打破了人工智能客觀、中立、普遍和真理的美夢。
**在技術中立論中,技術被認為是獨立於政治選擇和政治立場的一種真空狀態,然而ChatGPT所具有的政治傾向性駁斥了這一點。**有研究從德國現實出發,用630份政治聲明作為ChatGPT的提示詞,這些政治聲明來自兩大流行的投票建議APP和無關國家的政治指南測試,研究基於實證研究方法,發現ChatGPT背後存在強大的意識形態。具體而言,研究結論表明ChatGPT具有環境保護主義、左翼自由主義的政治觀,例如,它會提出諸如對航空徵税、限制租金增長、支持墮胎合法化等建議。另外,ChatGPT的政治傾向性還表現在對於不同政治立場的人生成符合其政治立場的內容,比如有研究發現,同樣是讓ChatGPT創作愛爾蘭打油詩,對於持自由派立場或保守派立場的人輸入的指令,ChatGPT所生成的打油詩會具有相對應的或積極或消極的風格。
然而,ChatGPT作為一項技術為什麼會“天然地”對人類社會的政治問題產生自己的判斷和傾向呢?這就來自ChatGPT在模型層面上對數據的採樣偏差,如前文所述,ChatGPT的生成建基於大量數據之上,因此數據的特徵和對數據的採樣偏向都會影響ChatGPT輸出的內容。有計算機科學研究者經過實驗發現,ChatGPT在數字方面會高度參考人類社會對數字的偏好,即ChatGPT生成的數字頻率與人類最喜歡的數字之間具有高度的相關性。該研究通過使用會產生無理數的數學表達式來對ChatGPT進行質詢。在無理數中,所有的數字出現的頻率是相同的,因此任何不均等的分佈都可以説明ChatGPT的結果存在偏向。由於ChatGPT是基於現實世界的數據進行訓練,因此對這種偏向的判定就可以使用本福德定律(Benford’s law)。本福德定律在實際應用中經常用於檢查各種數據是否有造假情況,然而結果顯示ChatGPT給出的數據並不符合該定律,這説明**ChatGPT輸出的數據結果已被技術本身進行了事先的干預。**那干預的標準何來?有意思的是,該研究借用貝洛斯(Alex Bellos)對人類喜愛數字情況的調查結果,發現ChatGPT生成的頻率最高的數字就是人類最喜歡的數字“7”,類似地,ChatGPT生成的頻率最低的數字與人類最不喜歡的數字“1”相同。
當ChatGPT的技術黑箱被逐漸打開,我們會發現生成式AI和新一代人工智能並沒有與此前的互聯網平台時代的價值體系產生斷裂。實際上,這一新技術依然延續着此前平台與用户的關係,即利用大數據和算法對用户的喜好、偏向和行為進行記錄、分析與預測,使每個用户所得到的數字內容都具有差異性和個性化。因此,在“人類為什麼會愛上AI”這個常見的科幻電影主題背後,在“我們為什麼會沉迷於和機器聊天”的現實問題背後,一個技術價值層面的答案是——“計算”並非中立,它的背面名為“算計”。而“算計”的依據正是被近年來的全球科技公司視作重要財富的用户數據。

電影《她》海報
生成式AI在技術上的創新和突破並不意味着對“數據驅動型”產業結構的調整和顛覆,甚至在未來,數據的地位只會更高,高度依賴訓練數據進行無監督學習的人工智能會再一次將數據高高託舉在技術創新之路上的關鍵地位。考察近年來大語言模型的自我迭代過程不難發現,每一次大語言模型在規模上的擴大和性能上的增強都離不開對訓練數據的體量和參數規模的無限追求:2019年,GPT-2問世時其Transformer的參數值從第一代的10億增加到15億,訓練樣本量也達到了100萬網頁數據;2020年,GPT-3憑藉其1750億的參數成為當時全球最大的預訓練模型;而到了GPT-4,訓練參數再次加碼至1.8萬億,是上一代GPT-3的十倍之多。然而,再大規模的訓練數據也無法保證多樣性價值的實現,大語言模型越依賴訓練數據,人工智能就越是對既有互聯網話語霸權的照搬,依託訓練數據而完成的智能生成最終只能淪為偏見的再生產。因此便出現了當前人工智能發展的一種悖謬狀態,一方面是高度追求和歌頌智能機器的自動化,另一方面是高度依賴人工在自動化過程中的矯正,比如生成式AI所催生的新職業——人工智能審核員。這樣的悖謬狀態提醒着人工智能的設計者和使用者:破除“數據迷信”,更重要的破除“智能迷信”,這是在面對人工智能時人類應該具有的審慎態度,畢竟訓練數據和大語言模型影響的不止文本的價值傾向問題,它更在對“文本”自身造成底層邏輯的顛覆,甚至是毀滅。
(二)數字八股:故事數據庫與敍事“僵死”
**作為一種新型的書寫媒介,生成式AI必然對文本形態和文本的創作產生影響。**或者更進一步説,**對“什麼是文本”的理解和定義也在悄然發生改變。**本質上作為大語言模型的ChatGPT正在將一切“文本”變為“概率”。在語言模型中,處理和生成文本的基本單位是“token”,每個文本都是由token組成,token是已編譯成有意義的語義處理單元的字符串實例。通常來講,token可以是一個單詞、一個數字、一個標點符號。在自然語言處理中,文本會經歷“分詞化”(tokenization)的過程,即通過將文本劃分為具有獨立語義的token來完成文本的預測和生成。因此可以説,圍繞token這一基本概念所形成的分詞化和向量化(將文本表示成一系列能夠表達語義的數值化向量)過程就是大語言模型時代的數據結構、語言結構和文本結構所藴含的顯著特徵。
**語言模型可以根據一些訓練數據為一段從未見過的文本匹配一個概率。**通俗地説,語言模型被用來計算一個句子出現的概率,而越像人類使用語言的句子在條件概率的計算公式中所得到的概率值也越大。當大語言模型正在把文本變成概率,文本的智能生成也隨之成為一種模型計算之下的隨機性“事件”,而“事件性”是數字化時代和後現代社會才具有的文化特性。利奧塔對後現代文化中“事件特性”的總結是:“後現代應該是一種情形,它不再從完美的形式中獲得安慰,不再以相同的品味來集體分享鄉愁的緬懷,後現代尋求新的表現方式,並非要從中覓取享受,而是傳達我們對‘不可言説的’認識……他寫出的文本,他創作的作品原則上並不受先在規則的限制,因而也不能用普通的文本或作品分類去予以歸類,更不能根據決定性的判斷來評價。”

弗朗索瓦·利奧塔
換句話説,**現代文化的模式和理論在20世紀60年代之後已然失效,曾經可以用“樹狀模型” 來歸類的世界逐漸崩塌瓦解——“大敍事”不再被渴望也不再被生產,後現代主義文化理論和一系列“後學”誕生並擁有了闡釋世界的主導力量。**面對“大敍事”的凋零和文藝作品的“事件特性”,曾經由現代性所帶來的整體性和統一感正在消失,一種表層的擬像和深層的數據庫成為後現代文化的雙重構造。
然而,ChatGPT們給敍事藝術所帶來的危機不簡單在於後現代對現代文化的取代,即所謂數據庫模式取代了樹狀模式,個性化、分眾化敍事取代了整體性、統一性敍事。實際上,**“樹狀模式”也在仰賴新的AI技術對後現代的離散性展開“領地重奪”,呼喚“結構”與“解構”出現“共存之地”。**生成式AI一方面藉助人類語料數據庫、故事數據庫、形式數據庫召喚着“模型”“先在規則”和“文本/作品的類型”;另一方面,生成式AI也基於信息處理的數學基礎,較少與世界的時延與運動相對應,更多地與內在於計算機的內存和邏輯過程的離散數字元素的控制及變化相對應。也正因如此,單純用後現代文化的理論框架來對生成式文化進行解釋是難以概全的,因為生成式AI是一種混合型技術文化,是一種可以稱之為“後現代之後”的數字文化,而這種數字文化的特徵是繁複的文本間性與索引性喪失並存的矛盾狀態,即新文本是由諸多舊文本拼貼、改寫、重組而成的,但與此同時,這種文本之間的關聯並沒有在當前人工智能的生成規則中得以顯現,生成式AI的文本既相互關聯又彼此疏離。
**而****在這種新型技術文化和內容創作方式的影響下,“敍事僵死”成為一種悲劇性的可能。**ChatGPT掌握的不是作家、藝術家、創作者的“靈韻”,而是形式、結構與數據,因此生成式AI所生成的敍事難免淪為一種“數字八股”。在生成式AI的技術基礎中,人工神經網絡經常被視為實現更高級別結構的平台(如文字處理器或數據庫)。研究結果表明,ChatGPT可以根據主角或對手的變化來進行故事改編。數字八股就是人工智能將事件和敍述輸入具有“故事數據庫”的平台,此時,故事完全表示為結構化的數據,然後機器自動生成一種“事件驅動型敍事”。“敍事僵死”帶來的惡果是“敍事將死”,靈韻的消失帶來的將是人類想象力的再度退化,曾經向“統一的整體”開戰的後現代文化將關閉醖釀“可能性”的大門,我們曾經作為“不可言説之物”的見證者也恐淪為喪失真切慾望的動物性後人類。
**面對這種境況,或許人類需要重拾創作的本質,挖掘藝術創作中超脱理性之外的層面,而“非理性”恰恰也是人工智能迄今為止難以被訓練的能力。**在故事數據庫的訓練之下,生成式AI或許可以學習模仿敍事的結構與套路(就像經典好萊塢敍事也早已形成其固有的模板和規律一樣),然而,值得人類慶幸的是,生成式AI無法參透人類社會的情感結構(structure of feeling)和每時每刻都在發生變化的微妙的社會心理。通俗地説,人工智能或許可以生產愛情故事和悲劇情節,但人工智能卻永遠無法依靠概率與計算來體會人類與人類社會的“愛”與“恨”。智能的非智能之處正是在這一遠離工具與理性的維度上得以顯現。最終我們發現,不論機器人多麼擬態與求真,它離“現實”“真相”“看見”“共情”都相去甚遠——它學習現實,但它遠離現實;它探求真相,但它缺席真相;它培養看的能力,卻不具有看見的可能;它接收人的情感,卻無法回應與分享這份情感。因此,當創作者高歌生成式AI的高效創作能力和因此獲得了雙手的解放時,這是一種對人類自身的矮化,同時也是對智能神話的輕信。
(三)智能傳播不智能:深度偽造與無事實時代
**生成式AI作為一種語言處理和內容生產的人工智能,除了對文本和敍事帶來巨大影響之外,也必然會對信息秩序和新聞傳播產生翻天覆地的改變。**實際上,這一影響正在現實中上演,生成式AI對新聞業介入和重塑的速度、深度要遠遠超過包括影視、設計、教育、電商在內的其他行業。騰訊研究院在2023年6月圍繞“ChatGPT對新聞業的影響”話題展開了一項調研,結果顯示,有80%的國內新聞從業人員已使用過ChatGPT或類似產品,其中超過一半(56%)受訪者認為ChatGPT(或類似工具)對自己的工作帶來了實際幫助。國內外多家媒體機構在今年展現出了對生成式AI的熱情擁抱態度,如創建AI協同機制、僱傭AI編輯、接入AIGC應用等。
**人工智能對新聞生產的介入要早於ChatGPT誕生的時間。**美聯社從2014年開始就將人工智能納入新聞業務中,當時最先開始的業務是商業新聞台用人工智能自動處理有關企業收益的報道。如今自然語言處理技術已經廣泛應用於新聞生產和媒體運營等領域之中,一些新聞機構從新聞採集到新聞製作再到新聞分發的各個環節都在使用人工智能。比如2022年6月,Cosmopolitan出版了第一本由AI生成的藝術封面的雜誌。《洛杉磯時報》(Los Angeles Times)使用Quakebot(一種與美國地質調查局直接相關的算法)來生成有關地震活動的虛擬實時報告。

世界首個由AI生成的藝術封面的雜誌《Cosmopolitan》
然而,就在新聞業熱情擁抱生成式AI的同時,高歌猛進的智能傳播也暴露出了它的問題。其中,最廣為討論的就是虛假新聞充斥下的“後真相時代”,其嚴重程度甚至被研究者稱為“信息戰爭”。而虛假信息的背後是深度學習技術雙刃劍的另一刃——深度偽造(deepfakes),深度偽造正是我們前文提到的生成式對抗網絡的技術產物,它製造虛假信息的方式主要是通過神經網絡對大量數據樣本進行分析,藉助面部影像技術完成AI換臉、合成語音、編輯視頻等操作。由於深度偽造的出現,新聞業不得不面對來自信息接收者的巨大的信任危機,這使得互聯網發展初期的一句流行語“有圖有真相”不再具有任何説服力。可以説,自生成式AI介入信息秩序以來,人類社會就開始從戴維·温伯格所總結的經典事實時期、數據事實時期、網絡化事實時期進入第四個歷史時期,即“無事實時期”。事實的土崩瓦解, 正是造成後真相時代來臨的最大原因。
像ChatGPT這樣的語言模型,其信息的輸入輸出過程有一個特性:輸出的內容只是與用户輸入的內容具有語義層面的最大關聯性。這就意味着,**在大語言模型的價值排序中,語義上的關聯性是比信息的準確性更為重要的。**ChatGPT和其他生成式大語言模型一樣具有編造事實的能力,但ChatGPT的技術“優越性”使它具有了讓虛假信息看起來如事實一樣的能力,這再一次模糊了“幻覺”和“真實”的邊界。OpenAI也曾鮮明地指出這一問題,並且聲明解決這一問題的難度所在:“ChatGPT 有時會寫出看似合理但不正確或荒謬的答案。而解決這個問題是極具挑戰性的,在強化學習訓練期間,目前沒有真實來源,訓練模型更加謹慎將導致它拒絕本來可以正確回答的問題,而監督訓練則會誤導模型,因為理想的答案取決於模型知道什麼,而不是人類演示者知道什麼。”
誠然,大語言模型或許可以幫助新聞工作者進行一些簡單的輔助工作,比如包括路透社、《華盛頓郵報》在內的媒體都在實踐新聞自動生成系統,在諸如天氣、體育、股票等基礎的信息資訊類的新聞生產中使用自動化寫稿機器人進行初步的稿件生成,國內媒體新華社也在新聞智能化之路上推出了快筆小新、媒體大腦等生成式人工智能應用和平台。**然而,人工智能對新聞工作的輔助並不意味着“人”在新聞行業中的缺席和退場。**智能傳播並沒有人們想象的那樣“智能”——對語料的高度依賴,對信息準確性的難以把握,對事實和情緒的難以區分,都使得生成式AI具有擾亂信息秩序、危害信息安全的風險,而因為人工智能的技術黑箱化和算法的不透明性使得這種風險往往難以預估,無法提前防範。更可怕的是,當這些問題發生時,人工智能在倫理上的問責制問題又使得以上危機難以被輕鬆界定和治理。當信息生產和傳播的責任方難以錨定,當信息的定義權和解釋權從人類手中轉移到機器模型中,當對正在發生的歷史的書寫的權力與記錄的責任從人類手中交付出去,人類社會、文明與記憶都將會坍縮至模型的語言結構中,最後的結果是:人類不再説話,人類將被機器所言説。
結語
**圖靈曾經這樣預測:“我認為很有可能在本世紀末,人們將對機器進行編程,使其回答問題,以至於很難猜測答案是由人給出的還是由機器給出的。**我在想象一種類似於口試的考試,但問題和答案都是用打字機打出來的,這樣我們就不必考慮像模仿人的聲音是否真實這樣無關緊要的問題了。這只是我個人的觀點,還有很大的空間。還有一些困難。”今天,ChatGPT實現了圖靈的暢想,生成式AI也正在生成無法辨別人/機、真/偽、虛/實的語言、文本和信息。當人工智能的類人化程度越來越高,一切對機器的理解最終都會迴歸到對人類的自反。現代社會的發展始終伴隨着人類的思想和技能與客觀世界的工具和技術相結合的過程,而隨着人類的思維和身份越來越深入地融入技術中,工具和用户的邊界便變得脆弱,工具不再具有純粹的工具性,而更像是人類器官的一部分,正因如此,生成式AI和一系列人工智能新技術都必須被放置在一種“腳手架”的位置上,它不應該被視為充當甚至代替人類思維的機械大腦,而應作為人類身心的第三元,在生物學和技術科學的互惠互補關係中映現人類的思想與機器的理性。
隨着由人工智能驅動的機器越來越多地介入我們的社會、文化、經濟和政治互動,瞭解人工智能系統的行為對我們控制其行動、獲取其利益和減少其危害的能力至關重要。美國麻省理工學院的研究人員主張建立一門類似於動物行為學的新科學,以一種更廣泛的方式研究計算機,他們提出了**“機器行為”(machine behavior)**的術語,主張用一種多學科方法來研究機器的行為,它將“類似於動物行為學和行為生態學通過將生理學和生物化學(內在屬性)與生態學和進化研究(環境塑造的屬性)相結合來研究動物行為”。這樣的研究取向之所以重要,是因為機器能夠塑造人類行為,算法或其使用的數據中的微小錯誤復合在一起可能產生波及全社會的影響。這樣的研究將不會容易,因為“即使借用現有的行為科學方法可以證明對研究機器有用,機器也可能表現出與生物代理人的智能和行為形式有本質區別、甚至是格格不入的智能和行為形式” 。然而想要生成式革命對全人類有益,我們就必須直面其風險,因為人類的能力有極大可能被算法放大,但同時也存在許多難以預估的危險。