《華爾街日報》:沒有意識,人工智能將成為反社會者
Michael S.A. Graziano
ChatGPT作為最新的技術熱潮,是一款具備驚人對話能力的人工智能聊天機器人。它依託於一個粗略模擬人腦的龐大人工神經網絡,並通過分析互聯網信息資源進行訓練。ChatGPT處理過的文本量遠超人類一生可能閲讀的總和,使其能流暢回答問題,甚至能模仿特定人物,以它認為對方會採用的方式回應疑問。我正值青春期的兒子最近就用ChatGPT與模擬的卡爾·馬克思進行過政治辯論。
作為一名專攻意識腦機制研究的神經科學家,與聊天機器人對話總讓我感到不安。它們具有意識嗎?很可能沒有。但以技術發展的速度,未來幾年內會出現有意識的AI嗎?我們又該如何判斷?
判斷機器是否擁有或理解類人意識已不僅是科幻假設。人工智能正以驚人速度變得過於強大,很快可能對人類構成威脅。我們正在創造比人類更聰明的機器,並賦予它們掌控世界的能力。如何才能確保AI與人類需求一致而非對立?
儘管聽起來有違直覺,但要打造良性AI,或許應該增強而非削弱其意識。關於AI最常見的誤解是:高智能必伴隨意識,有意識就會自主行動甚至統治世界。但隨着對意識研究的深入,這些觀點並不成立——一個能做出複雜決策的自主系統並不需要意識。
關於意識最重要的一點是,對人類而言,它不僅僅關乎自我。我們能在自身感知到意識,也會將其投射到周圍世界中。意識是進化賦予我們的工具包之一,使我們成為具有同理心的親社會物種。若沒有意識,我們必然成為反社會者,因為我們將缺乏親社會行為的工具。而機器由於不理解意識為何物或無法認知其他生命體擁有意識,本質上就是反社會的。
目前我們擁有的唯一機器意識檢測工具是圖靈測試,這個以英國計算機科學家艾倫·圖靈命名的思想實驗。其最常見版本認為:如果一個人與機器對話時,將其回應誤認為真人作答,那麼這台機器就應被視為具有意識。
圖靈測試默認了一個前提——我們只能通過他者(或它者)的外在交流方式判斷其意識存在。但該測試的侷限性顯而易見:寵物狗無法通過對話偽裝成人,難道意味着它沒有意識?若真想讓機器通過測試,只需讓它對孩童説幾句話,甚至可能騙過某些成年人。
事實上,圖靈測試無法揭示ChatGPT等程序內部的真實運作機制。它真正檢驗的是人類參與者的社會認知能力——作為社會性動物,我們的大腦會本能地將意識、能動性、意圖和情感投射到周遭物體上。我們天生傾向於認為萬物有靈:古代泛靈論認為每條河流、每棵樹都棲息着精靈;同理,人們容易在月亮或發黴吐司等隨機物體上看到人臉。
艾倫·圖靈在1950年論文中提出的原始測試比如今人們討論的版本複雜得多。值得注意的是,圖靈隻字未提"意識"概念,他從未深究機器是否具有主觀體驗,只追問它能否像人類一樣思考。
圖靈設計了一個"模仿遊戲":玩家需要通過文字問答判斷A、B兩人的性別(一男一女),其中A會欺騙性作答,若玩家判斷錯誤則A獲勝;B則誠實回答,玩家判斷正確即B獲勝。圖靈設想,若用機器替代A或B,且其獲勝頻率與真人相當,就證明機器掌握了人類思維的微妙之處——包括辯論、操控和揣測他人想法的能力。
原始測試的複雜性被後世簡化為人機對話的單一版本,但恰恰是這種怪誕的複雜性才是關鍵。社會認知需要"心智理論"支撐——即理解他人擁有獨立心智,並能推測其內容。
要判斷計算機是否具備意識,就需要測試它是否理解意識主體間的互動。這相當於一個反向圖靈測試:觀察計算機能否分辨對話對象是人類還是機器。若它能區分,或許就理解了意識的本質。目前的ChatGPT顯然無法通過——它根本不知道自己在與有意識的人類對話,還是在處理預設問題列表。
一台能夠做出重大決策的反社會機器將極其危險。目前,聊天機器人的能力仍然有限;它們本質上只是玩具。但如果我們不更深入地思考機器意識,一年或五年後我們可能會面臨一場危機。如果計算機終將超越我們的思維,賦予它們更類似人類的社會認知能力,或許是我們讓它們與人類價值觀保持一致的最大希望。
格拉齊亞諾博士是普林斯頓大學心理學和神經科學教授,著有《重新思考意識:主觀體驗的科學理論》。
本文發表於2023年1月14日的印刷版,標題為《沒有意識,人工智能將成為反社會者》。