經濟學人丨尤瓦爾·赫拉利:人工智能已侵入人類文明的操作系統_風聞
听桥-05-08 13:48

歷史學家尤瓦爾·赫拉利。

原文截圖
人工智能已侵入人類文明的操作系統
尤瓦爾·赫拉利(Yuval Noah Harari)
自計算機時代開始,對人工智能的恐懼就已困擾人類。迄今為止,這些恐懼主要關乎使用物理手段殺戮、奴役或替代人類的機器。但過去一些年,新的人工智能工具出現了,從一個人們沒有預料到的方向威脅到人類文明的生存。人工智能已獲得了一些非凡的能力,可以操縱和生成語言,不論是用文字、聲音還是圖像。因之,人工智能已侵入我們文明的操作系統。
語言是構成幾乎所有人類文化的物料。譬如,人權並沒有被刻寫在我們的基因裏;毋寧説,它們是我們通過講述故事和擬定法律創造出來的文化產物。諸神並非物理上的現實;毋寧説,它們是我們通過發明神話和擬定聖典創造出來的文化產物。
貨幣也是一種文化產物。紙幣只是五顏六色的紙張,目前90%以上的貨幣甚至並非紙幣,只是電腦中的數字信息。賦予貨幣價值的,是銀行家、財政部長和加密貨幣專家講給我們的故事。山姆·班克曼-弗裏德(Sam Bankman-Fried)、伊麗莎白·霍姆斯(Elizabeth Holmes)和伯尼·麥道夫(Bernie Madoff)不擅長創造真正的價值,但都是能力超羣的故事講述者。(山姆·班克曼-弗裏德,生於1992年,是加密貨幣交易平台FTX創始人兼首席執行官,正遭到多項商業欺詐罪指控。伊麗莎白·霍姆斯,生於1984年,是已停止運營的醫療技術公司Theranos創始人兼首席執行官,因欺詐投資者的罪名獲刑11年。伯尼·麥道夫,生於1938年,卒於2021年,龐氏騙局操縱者。三人均為美國人。——譯註)
一旦一種非人類的智能變得比一般人類更善於講故事、創作旋律、繪製圖像、擬定法律和聖典,什麼事情會發生?當人們想到 Chatgpt 和其他新的人工智能工具時,他們經常會被一些例子所吸引,比如學校裏的孩子用人工智能寫論文。假如孩子們這麼做,學校系統會怎麼樣?但是這種疑問忽略了大局。別管學校論文了。考慮一下2024年的下一次美國總統競選,試着想象一下人工智能工具的衝擊:這些工具可以為新的邪教大規模生產政治內容、虛假新聞故事和聖典。
近年來,邪教團體“匿名者Q”(QAnon)圍繞匿名在線信息聚集起來,這種信息被稱為“ Q 豆”(Q drop)。該組織的追隨者收集、尊崇這些Q豆,並將它們詮釋為一種神聖文本。據我們所知,以前所有的Q豆都由人類組成,機器人程序只是幫助傳播它們,但將來我們可能見證歷史上第一批邪教團體,它們的飽受尊崇的文本是由一種非人類的智慧生物書寫。歷史上的宗教聲稱它們的聖書並非源自人類。這很快就會成為現實。
在更庸常的層面,我們或許很快就會發現,我們自己在網上與一些我們認為是人類但實際上是人工智能的實體,就墮胎、氣候變化或俄羅斯入侵烏克蘭等議題進行了冗長的討論。麻煩在於,我們花時間試圖改變人工智能機器人公開表達的見解,這是完全沒有意義的,而人工智能機器人可以極為準確地打磨其信息,乃至於大有可能影響到我們。
通過掌握語言,人工智能甚至可以與人類形成親密關係,並利用這種親密的力量改變我們的見解和世界觀。雖然沒有跡象表明人工智能擁有任何自己的意識或情感,但要培養與人類的虛假親密關係,假如人工智能可以令人類感到已在情感上依附於它,那就足夠了。2022年6月,谷歌工程師 Blake Lemoine公開宣稱,他正在研究的人工智能聊天機器人Lamda已變得有了感知能力。這一爭議性的説法使他失去了工作。關於這一插曲,最有趣的地方不在於Lemoine先生的説法,那可能是錯誤的;毋寧説,最有趣的地方在於,他樂意為人工智能機器人而蒙受丟掉自己賺錢的工作機會的風險。假如人工智能之影響人類,已可以令人們蒙受丟掉工作的風險,它還能誘使人們做什麼呢?
在爭取人心的政治鬥爭中,親密關係是最有效的武器,而人工智能剛剛獲得了與數百萬人大規模生成親密關係的能力。我們都知道,在過去十年間,社交媒體已成為控制人的注意力的戰場。隨着新一代人工智能出現,這個戰場正從關注轉向親密。當人工智能與人工智能為偽造與我們的親密關係而交火,而那些親密關係隨後可以被用來説服我們投票給特定的政治家或購買特定的產品,這時,人類社會和人類心理將發生什麼變化?
哪怕沒有形成“虛假的親密關係”,新的人工智能工具也將極大影響到我們的見解和世界觀。人們可能會享用單獨一個人工智能顧問,將其當成一位無所不知的一站式聖哲。難怪谷歌惶恐不安。既然我可以問一下聖哲,那為何還要費心搜尋呢?新聞和廣告業也應惶恐不安。既然我可以問一下聖哲,請它告訴我最新的消息,那為何還要看報紙呢?當我可以請聖哲告訴我該買什麼的時候,廣告的意義又在哪裏?
而哪怕是這些預測,也沒有真正捕捉到全局。我們正在討論的是人類歷史的可能終結。不是歷史的終結,只是其人類主導部分的終結。歷史是生物學和文化之間的相互作用;是我們對食物和性之類事物的生物學需要以及慾望,和我們的宗教和法律之類文化創造物之間的相互作用。歷史是法律和宗教塑造食物和性的過程。
當人工智能接管文化,並開始生成故事、旋律、法律和宗教時,歷史的進程會發生什麼?過往的印刷機和收音機之類工具幫助傳播了人類的文化主張,但它們從來沒有形成自己新的文化主張。人工智能則完全不同,可以形成全新的主張、全新的文化。
起初,人工智能可能會模仿人類原型,它在嬰兒時期就是這樣被訓練的。但隨着時間的推移,人工智能文化將冒險步入人類從未涉足過的領域。數千年來,人類都生活在其他人類的夢想中。在接下來的幾十年裏,我們可能會發現自己生活在某種外星智慧生物的夢想中。
對人工智能的恐懼只是在過去數十年間困擾着人類。但幾千年來,一種深層得多的恐懼已困擾着人類。我們往往欣賞故事和圖像操縱我們的思想和製造幻覺的力量。因此,自古以來,人類就懼怕被困在一個幻象的世界。
十七世紀,勒內·笛卡爾懼怕的是,可能有一個惡魔正將他困在一個幻象的世界內部,創造出了他所看到和聽到的一切。在古希臘,柏拉圖講過一個著名的洞穴寓言: 一羣人一輩子都被鎖在一個洞穴當中,面對一堵空白的牆,一隻屏幕,他們看到形形色色的陰影被投射於其上。囚犯們誤認為,他們看到的幻象就是現實。
在古代印度,佛教和印度教的智者指出,所有人類都受困於Maya,即幻象世界。我們通常認為的現實,往往只是我們自己頭腦中的虛構。人們可能發動整個戰爭,殺戮他人,且自己願意被殺戮,因為他們相信這樣或那樣的幻象。
人工智能革命正讓我們直面笛卡爾的惡魔,直面柏拉圖的洞穴,直面Maya。假如我們不小心,我們就可能被困在一塊幻象的幕布之後,我們無法扯掉它,甚至無法意識到它的存在。
當然,人工智能的這一新能力也可以用於良善的目的。我不會詳細講這一點了,因為開發人工智能的那些人説得足夠多了。像我這樣的歷史學家和哲學家的工作就是指出危險。但可以肯定的是,從尋找治療癌症的新藥方到發現生態危機的應對之道,人工智能可以在無數方面幫助我們。我們面對的疑問是,如何確保新的人工智能工具用於良善的方面而不是壞惡的方面。為此,我們首先需要理解這些工具的真正功能。
自1945年以來,我們已經知道,核技術可以為人類生成廉價的能源,但也可以從實體上摧毀人類文明。於是,我們重塑了整個國際秩序,以保護人類,並確保核技術主要用於善事。我們眼下必須對付一種新的可以毀掉我們的精神和社會世界的大規模殺傷性武器。
我們仍可規範新的人工智能工具,但必須迅速行動。核武器無法發明更強大的核武器,但人工智能可以製造出越來越強大的人工智能。第一個關鍵步驟是,要求強大的人工智能工具在被釋放到公共空間之前進行嚴格的安全檢查。正如製藥公司不能在測試某種新藥的短期和長期副作用之前發佈這種新藥,技術公司也不應在某種新的人工智能工具被安全開發出來之前就發佈這種工具。對新技術,我們需要一個相當於食品藥品管理局(FDA)那樣的新監管機構,我們昨天就需要了。
放慢人工智能的公共部署不會導致民主國家落後於更無情的威權政權嗎?恰恰相反。不受監管的人工智能部署將造成社會混亂,而這將有利於獨裁者,並毀掉民主。民主是一種對話,而對話仰賴語言。當人工智能入侵語言時,它可能摧毀我們進行有意義對話的能力,從而摧毀民主。
我們剛在地球上不期而遇一個外星智慧生物。我們對其知之甚少,只知道它可能會毀滅我們的文明。我們理當停止在公共領域不負責任地部署人工智能工具,並在人工智能規範我們之前先規範它。我大致會建議的第一條規定是,強制要求人工智能披露它是人工智能。假如我正在與某人交談,而我無法分辨對方是一個人還是人工智能,那就是民主的末日。
本文是人的創作。
或者,真的是?
(作者是耶路撒冷希伯來大學歷史學系講師,著有《人類簡史》。本文原題“Yuval Noah Harari argues that AI has hacked the operating system of human civilisation”,見於《經濟學人》印刷版“By Invitation”欄目,2023年5月6日至12日一期,4月28日上線。手繪題圖為原文所有。譯者聽橋,對由一款軟件生成的原譯文有修正……)

《經濟學人》2023年5月6日至12日一期封面