全球市值第一的AI公司, 怎麼就成了“美股最大泡沫”?| 文化縱橫(下)_風聞
文化纵横-《文化纵横》杂志官方账号-59分钟前
**▍**為何我們難以達成一致
在 2014 年 BBC 對她職業生涯回顧的一次採訪中,現年 87 歲的有影響力的認知科學家 Margaret Boden 被問及她是否認為有任何限制會阻止計算機(或者她所謂的“錫罐子”)去做人類能做的事情。
“我當然不認為原則上存在這樣的限制,”她説,“因為否認這一點就意味着人類的思維是靠魔法發生的,而我不相信它是靠魔法發生的。”
但她警告説,強大的計算機本身並不足以使我們達到這一目標:AI 領域還需要“有力的想法”——關於思維如何發生的全新理論,以及可能複製這一過程的新算法。“但這些東西非常、非常困難,我沒有理由假設有一天我們能夠回答所有這些問題。或許我們能;或許我們不能。”
博登回顧了當前繁榮期的早期階段,但這種我們能否成功的搖擺不定反映了數十年來她和她的同僚們努力解決的難題,這些難題正是今天研究人員也在努力克服的。**AI 作為一個雄心勃勃的目標始於大約 70 年前,而我們至今仍在爭論哪些是可實現的,哪些不是,以及我們如何知道自己是否已經實現了目標。大部分——如果不是全部的話——**這些爭議歸結為一點:我們尚未很好地理解什麼是智能,或者如何識別它。這個領域充滿了直覺,但沒有人能確切地説出答案。
自從人們開始認真對待 AI 這一理念以來,我們就一直卡在這個問題上。甚至在此之前,當我們消費的故事開始在集體想象中深深植入類人機器的概念時,也是如此。這些爭論的悠久歷史意味着,今天的爭論往往強化了自一開始就存在的分歧,使得人們更加難以找到共同點。
為了理解我們是如何走到這一步的,我們需要了解我們曾經走過的路。因此,讓我們深入探究AI的起源故事——這也是一個為了資金而大肆宣傳的故事。
(一)人工智能宣傳簡史
一般認為,計算機科學家約翰·麥卡錫(John McCarthy)在 1955 年為新罕布什爾州達特茅斯學院 (Dartmouth College)的一個暑期研究項目撰寫資助申請時提出了“人工智能”這一術語。
計劃是讓McCarthy和他的幾個研究員同伴——戰後美國數學家和計算機科學家的精英羣體,或如劍橋大學研究 AI 歷史以及谷歌 DeepMind 倫理與政策的研究員 Harry Law 所稱的“John McCarthy 和他的小夥伴們”——聚在一起兩個月(沒錯,是兩個月),在這個他們為自己設定的新研究挑戰上取得重大進展。
McCarthy 和他的合著者寫道:“該研究基於這樣一個假設進行:學習的每一個方面或智力的任何其他特徵原則都可以被如此精確地描述,以至於可以製造一台機器來模擬它。我們將嘗試找出如何讓機器使用語言、形成抽象概念、解決目前僅限於人類的問題,並自我改進。”
他們想讓機器做到的這些事情——Bender 稱之為“充滿憧憬的夢想”——並沒有太大改變。使用語言、形成概念和解決問題仍然是當今 AI 的定義性目標。傲慢也並未減少多少:“我們認為,如果精心挑選的一組科學家一起工作一個夏天,就能在這些問題中的一個或多個方面取得顯著進展。”他們寫道。當然,那個夏天已經延長到了七十年。至於這些問題實際上現在解決了多少,仍然是人們在網絡上爭論的話題。
然而,這段經典歷史中常被忽略的是,人工智能差點就沒有被稱為“人工智能”。不止一位 McCarthy 的同事討厭他提出的這個術語。據歷史學家帕梅拉·麥考達克(Pamela McCorduck)2004 年的書《思考的機器》引用,達特茅斯會議參與者及首台跳棋電腦創造者亞瑟·塞繆爾(Arthur Samuel)説:“‘人工’這個詞讓你覺得這裏面有些虛假的東西。”數學家克勞德·香農(Claude Shannon),達特茅斯提案的合著者,有時被譽為“信息時代之父”,更喜歡“自動機研究”這個術語。赫伯特·西蒙(Herbert Simon)和艾倫·紐厄爾(Allen Newell),另外兩位 AI 先驅,在之後的多年裏仍稱自己的工作為“複雜信息處理”。
**事實上,“人工智能”只是可能概括達特茅斯小組汲取的雜亂思想的幾個標籤之一。歷史學家 Jonnie Penn 當時已確認了一些可能的替代選項,包括“工程心理學”、“應用認識論”、“神經控制論”、“非數值計算”、“神經動力學”、“高級自動編程”和“假設性自動機”。****這一系列名稱揭示了他們新領域靈感來源的多樣性,涵蓋了生物學、神經科學、統計學等多個領域。**另一位達特茅斯會議參與者 Marvin Minsky 曾將 AI 描述為一個“手提箱詞”,因為它能承載許多不同的解釋。
但 McCarthy 想要一個能捕捉到他願景雄心壯志的名稱。將這個新領域稱為“人工智能”吸引了人們的注意——以及資金。別忘了:AI 既性感又酷。
除了術語,達特茅斯提案還確定了人工智能相互競爭的方法之間的分裂,這種分裂自此以後一直困擾着該領域——Law 稱之為“AI 的核心緊張關係”。
McCarthy
和他的同事們想用計算機代碼描述“學習的每一個方面或其他任何智力特徵”,以便機器模仿。換句話説,如果他們能弄清楚思維是如何工作的——推理的規則——並寫下來,他們就可以編程讓計算機遵循。這奠定了後來被稱為基於規則或符號 AI(現在有時被稱為 GOFAI,即“好老式的人工智能”)的基礎。但提出硬編碼規則來捕獲實際、非瑣碎問題的解決過程證明太難了。
另一條路徑則偏愛神經網絡,即試圖以統計模式自行學習這些規則的計算機程序。達特茅斯提案几乎是以附帶的方式提到它(分別提到“神經網絡”和“神經網”)。儘管這個想法起初似乎不太有希望,但一些研究人員還是繼續在符號 AI 的同時開發神經網絡的版本。但它們真正起飛要等到幾十年後——加上大量的計算能力和互聯網上的大量數據。快進到今天,這種方法支撐了整個 AI 的繁榮。
**這裏的主要收穫是,就像今天的研究人員一樣,AI 的創新者們在基礎概念上爭執不休,並陷入了自我宣傳的旋渦。**就連 GOFAI 團隊也飽受爭吵之苦。年近九旬的哲學家及 AI 先驅 Aaron Sloman 回憶起他在 70 年代認識的“老朋友”明斯基和麥卡錫時,兩人“強烈意見不合”:“Minsky 認為 McCarthy 關於邏輯的主張行不通,而 McCarthy 認為 Minsky 的機制無法做到邏輯所能做的。我和他們都相處得很好,但我當時在説,‘你們倆都沒搞對。’”(斯洛曼仍然認為,沒有人能解釋人類推理中直覺與邏輯的運用,但這又是另一個話題!)
隨着技術命運的起伏,“AI”一詞也隨之時興和過時。在 70 年代初,英國政府發佈了一份報告,認為 AI 夢想毫無進展,不值得資助,導致這兩條研究路徑實際上都被擱置了。所有那些炒作,實質上都未帶來任何成果。研究項目被關閉,計算機科學家從他們的資助申請中抹去了“人工智能”一詞。
當我在 2008 年完成計算機科學博士學位時,系裏只有一個人在研究神經網絡。Bender 也有類似的記憶:“在我上大學時,一個流傳的笑話是,AI 是我們還沒有弄清楚如何用計算機做的任何事。就像是,一旦你弄明白怎麼做了,它就不再神奇,所以它就不再是 AI 了。”
但那種魔法——達特茅斯提案中概述的宏偉願景——仍然生機勃勃,正如我們現在所見,它為 AGI 夢想奠定了基礎。
(二)好行為與壞行為
1950 年,也就是 McCarthy 開始談論人工智能的五年前,Alan Turing(艾倫·圖靈) 發表了一篇論文,提出了一個問題:機器能思考嗎?為了探討這個問題,這位著名的數學家提出了一個假設測試,即後來聞名的圖靈測試。測試設想了一個場景,其中一個人類和一台計算機位於屏幕後,而第二個人類通過打字向他們雙方提問。如果提問者無法分辨哪些回答來自人類,哪些來自計算機,Turing 認為,可以説計算機也可以算是思考的。
與 McCarthy 團隊不同,Turing 意識到思考是一個很難描述的事情。圖靈測試是一種繞開這個問題的方法。“他基本上是在説:與其關注智能的本質,不如尋找它在世界中的表現形式。我要尋找它的影子,”Law 説。
1952 年,英國廣播公司電台組織了一個專家小組進一步探討 Turing 的觀點。圖靈在演播室裏與他的兩位曼徹斯特大學同事——數學教授麥克斯韋爾·紐曼(Maxwell Newman)和神經外科教授傑弗裏·傑斐遜(Geoffrey Jefferson),以及劍橋大學的科學、倫理與宗教哲學家理查德·佈雷斯韋特(Richard Braithwaite)一同出席。
Braithwaite 開場説道:“思考通常被認為是人類,也許還包括其他高等動物的專長,這個問題可能看起來太荒謬了,不值得討論。但當然,這完全取決於‘思考’中包含了什麼。”
小組成員圍繞 Turing 的問題展開討論,但始終未能給出確切的定義。
當他們試圖定義思考包含什麼,其機制是什麼時,標準一直在變動。“一旦我們能在大腦中看到因果關係的運作,我們就會認為那不是思考,而是一種缺乏想象力的苦力工作,”圖靈説道。
問題在於:當一位小組成員提出某種可能被視為思考證據的行為——比如對新想法表示憤怒——另一位成員就會指出,計算機也可以被編程來做到這一點。
正如 Newman 所説,編程讓計算機打印出“我不喜歡這個新程序”是輕而易舉的。但他承認,這不過是個把戲。
Jefferson 對此表示贊同:他想要的是一台因為不喜歡新程序而打印出“我不喜歡這個新程序”的計算機。換言之,對於 Jefferson 來説,行為本身是不夠的,引發行為的過程才是關鍵。
但 Turing 並不同意。正如他所指出的,揭示特定過程——他所説的苦力工作——並不能確切指出思考是什麼。那麼剩下的還有什麼?
“從這個角度來看,人們可能會受到誘惑,將思考定義為我們還不理解的那些心理過程,”Turing 説,“如果這是正確的,那麼製造一台思考機器就是製造一台能做出有趣事情的機器,而我們其實並不完全理解它是如何做到的。”
聽到人們首次探討這些想法感覺有些奇怪。“這場辯論具有預見性,”哈佛大學的認知科學家 Tomer Ullman 説,“其中的一些觀點至今仍然存在——甚至更為突出。他們似乎在反覆討論的是,圖靈測試首先並且主要是一個行為主義測試。”
對 Turing 而言,智能難以定義但容易識別。他提議,智能的表現就足夠了,而沒有提及這種行為應當如何產生。
然而,大多數人被逼問時,都會憑直覺判斷何為智能,何為非智能。表現出智能有愚蠢和聰明的方式。1981 年,紐約大學的哲學家 Ned Block 表明,Turing 的提議沒有滿足這些直覺。由於它沒有説明行為的原因,圖靈測試可以通過欺騙手段(正如紐曼在 BBC 廣播中所指出的)來通過。
“一台機器是否真的在思考或是否智能的問題,難道取決於人類審問者的易騙程度嗎?”布洛克問道。(正如計算機科學家 Mark Reidl 所評論的那樣:“圖靈測試不是為了讓 AI 通過,而是為了讓人類失敗。”)
**Block
設想了一個龐大的查找表,其中人類程序員錄入了對所有可能問題的所有可能答案。向這台機器輸入問題,它會在數據庫中查找匹配的答案併發送回來。Block
認為,任何人使用這台機器都會認為其行為是智能的:“但實際上,這台機器的智能水平就像一個烤麪包機,”他寫道,“它展現的所有智能都是其程序員的智能。”**
Block 總結道,行為是否為智能行為,取決於它是如何產生的,而非它看起來如何。Block 的“烤麪包機”(後來被稱為 Blockhead)是對 Turing 提議背後假設最強有力的反例之一。
(三)探索內在機制
圖靈測試本意並非實際衡量標準,但它對我們今天思考人工智能的方式有着深遠的影響。這一點隨着近年來大型語言模型的爆炸性發展變得尤為相關。這些模型以外在行為作為評判標準,具體表現為它們在一系列測試中的表現。當 OpenAI 宣佈 GPT-4 時,發佈了一份令人印象深刻的得分卡,詳細列出了該模型在多個高中及專業考試中的表現。幾乎沒有人討論這些模型是如何取得這些成績的。
這是因為我們不知道。如今的大型語言模型太過複雜,以至於任何人都無法確切説明其行為是如何產生的。除少數幾家開發這些模型的公司外,外部研究人員不瞭解其訓練數據包含什麼;模型製造商也沒有分享任何細節。這使得區分什麼是記憶(隨機模仿)什麼是真正的智能變得困難。即便是在內部工作的研究人員,如 Olah,面對一個痴迷於橋樑的機器人時,也不知道真正發生了什麼。
這就留下了一個懸而未決的問題:是的,大型語言模型建立在數學之上,但它們是否在用智能的方式運用這些數學知識呢?
(四)爭論再次開始。
布朗大學的 Pavlick 説:“大多數人試圖從理論上推測(armchair through it),”這意味着他們在沒有觀察實際情況的情況下爭論理論。“有些人會説,‘我認為情況是這樣的,’另一些人則會説,‘嗯,我不這麼認為。’我們有點陷入僵局,每個人都不滿意。”
Bender 認為這種神秘感加劇了神話的構建。(“魔術師不會解釋他們的把戲,”她説。)沒有恰當理解 LLM 語言輸出的來源,我們便傾向於依賴對人類的熟悉假設,因為這是我們唯一的真正參照點。當我們與他人交談時,我們試圖理解對方想告訴我們什麼。“這個過程必然涉及想象言語背後的那個生命,”Bender 説。這就是語言的工作方式。
“ChatGPT 的小把戲如此令人印象深刻,以至於當我們看到這些詞從它那裏冒出來時,我們會本能地做同樣的事,”她説。“它非常擅長模仿語言的形式。問題是,我們根本不擅長遇到語言的形式而不去想象它的其餘部分。”
對於一些研究者來説,我們是否能理解其運作方式並不重要。Bubeck 過去研究大型語言模型是為了嘗試弄清楚它們是如何工作的,但 GPT-4 改變了他的看法。“這些問題似乎不再那麼相關了,”他説。“模型太大,太複雜,以至於我們不能指望打開它並理解裏面真正發生的事情。”
但 Pavlick 像 Olah 一樣,正努力做這件事。她的團隊發現,模型似乎編碼了物體之間的抽象關係,比如國家和首都之間的關係。通過研究一個大型語言模型,Pavlick 和她的同事們發現,它使用相同的編碼映射法國到巴黎,波蘭到華沙。我告訴她,這聽起來幾乎很聰明。“不,它實際上就是一個查找表,”她説。
**但讓 Pavlick 感到震驚的是,與 Blockhead 不同,模型自己學會了這個查找表。**換句話説,LLM 自己發現巴黎對於法國就如同華沙對於波蘭一樣。但這展示了什麼?自編碼查找表而不是使用硬編碼的查找表是智能的標誌嗎?我們該在哪裏劃清界限?
“基本上,問題在於行為是我們唯一知道如何可靠測量的東西,” Pavlick 説。“其他任何東西都需要理論上的承諾,而人們不喜歡不得不做出理論上的承諾,因為它承載了太多含義。”
並非所有人都這樣。許多有影響力的科學家樂於做出理論上的承諾。例如,Hinton 堅持認為神經網絡是你需要的一切來重現類似人類的智能。“深度學習將能夠做一切,”他在 2020 年接受《麻省理工科技評論》採訪時説。
這是一個 Hinton 似乎從一開始就堅持的信念。Sloman 記得當 Hinton 是他實驗室的研究生時,兩人曾發生過爭執,他回憶説自己無法説服 Hinton 相信神經網絡無法學習某些人類和其他某些動物似乎直觀掌握的關鍵抽象概念,比如某事是否不可能。Sloman 説,我們可以直接看出什麼時候某事被排除了。“儘管 Hinton 擁有傑出的智慧,但他似乎從未理解這一點。我不知道為什麼,但有大量的神經網絡研究者都有這個盲點。”
然後是 Marcus,他對神經網絡的看法與 Hinton 截然相反。他的觀點基於他所説的科學家對大腦的發現。
Marcus 指出,大腦並不是從零開始學習的白板——它們天生帶有指導學習的固有結構和過程。他認為,這就是嬰兒能學會目前最好的神經網絡仍不能掌握的東西的原因。
“神經網絡研究者手頭有這個錘子,現在一切都變成了釘子,”Marcus 説。“他們想用學習來做所有的事,許多認知科學家會認為這不切實際且愚蠢。你不可能從零開始學習一切。”
不過,作為一名認知科學家,Marcus 對自己的觀點同樣確信。“如果真有人準確預測了當前的情況,我想我必須排在任何人名單的最前面,”他在前往歐洲演講的 Uber 後座上告訴我。“我知道這聽起來不太謙虛,但我確實有這樣一個視角,如果你試圖研究的是人工智能,這個視角就顯得非常重要。”
鑑於他對該領域公開的批評,你或許會驚訝於 Marcus 仍然相信通用人工智能即將來臨。只是他認為當今對神經網絡的執着是個錯誤。“我們可能還需要一兩個或四個突破,”他説。“你和我可能活不到那麼久,很抱歉這麼説。但我認為這將在本世紀發生。也許我們有機會見證。”
(五)炫彩之夢的力量
在以色列拉馬特甘家中通過 Zoom 通話時,Dor Skuler 背後的某個類似小枱燈的機器人隨着我們的談話時亮時滅。“你可以在我身後看到 ElliQ,”他説。Skuler 的公司 Intuition Robotics 為老年人設計這些設備,而 ElliQ 的設計——結合了亞馬遜 Alexa 的部分特徵和 R2-D2 的風格——明確表明它是一台計算機。Skuler 表示,如果有任何客户表現出對此有所混淆的跡象,公司就會收回這款設備。
ElliQ
沒有臉,沒有任何人類的形狀。如果你問它關於體育的問題,它會開玩笑説自己沒有手眼協調能力,因為它既沒有手也沒有眼睛。“我實在不明白,為什麼行業裏都在努力滿足圖靈測試,” Skuler 説,“為什麼為了全人類的利益,我們要研發旨在欺騙我們的技術呢?”
相反,Skuler 的公司賭注於人們可以與明確呈現為機器的機器建立關係。“就像我們有能力與狗建立真實的關係一樣,”他説,“狗給人們帶來了很多快樂,提供了陪伴。人們愛他們的狗,但他們從不把它混淆成人。”
ElliQ 的用户,很多都是八九十歲的老人,稱這個機器人為一個實體或一種存在——有時甚至是一個室友。“他們能夠為這種介於設備或電腦與有生命之物之間的關係創造一個空間,” Skuler 説。
然而,不管 ElliQ 的設計者多麼努力地控制人們對這款設備的看法,他們都在與塑造了我們期望幾十年的流行文化競爭。為什麼我們如此執着於類人的人工智能?“因為我們很難想象其他的可能性,” Skuler 説(在我們的對話中,他確實一直用“她”來指代 ElliQ),“而且科技行業的許多人都是科幻迷。他們試圖讓自己的夢想成真。”
有多少開發者在成長過程中認為,構建一台智能機器是他們可能做的最酷的事情——如果不是最重要的事情?
不久之前,OpenAI 推出了新的語音控制版 ChatGPT,其聲音聽起來像斯嘉麗·約翰遜(Scarlett Johansson),之後包括 Altman 在內的許多人都指出了它與 斯派克·瓊斯(Spike Jonze) 2013 年的電影《她》之間的聯繫。
科幻小説共同創造了對人工智能的理解。正如 Cave 和 Dihal 在《想象人工智能》一書中所寫:“人工智能在成為技術現象很久以前就已經是一種文化現象了。”
關於將人類重塑為機器的故事和神話已有數百年曆史。Dihal
指出,人們對於人造人的夢想可能與他們對於飛行的夢想一樣長久。她提到,希臘神話中的著名人物戴達羅斯,除了為自己和兒子伊卡洛斯建造了一對翅膀外,還建造了一個實質上是巨型青銅機器人的塔洛斯,它會向過往的海盜投擲石頭。
“機器人”這個詞來自 robota,這是捷克劇作家 Karel Čapek 在他的 1920 年戲劇《羅素姆的萬能機器人》中創造的一個術語,意為“強制勞動”。艾薩克·阿西莫夫(Isaac Asimov)在其科幻作品中概述的“機器人學三大法則”,禁止機器傷害人類,而在像《終結者》這樣的電影中,這些法則被反轉,成為了對現實世界技術的普遍恐懼的經典參考點。2014
年的電影《機械姬》是對圖靈測試的戲劇性演繹。去年的大片《造物主》設想了一個未來世界,在這個世界裏,人工智能因引發核彈爆炸而被取締,這一事件被某些末日論者至少視為一個可能的外部風險。
Cave 和 Dihal 講述了另一部電影《超驗駭客》,在這部電影中,由約翰尼·德普(Johnny Depp)飾演的一位人工智能專家將自己的意識上傳到了電腦中,這一情節推動了元末日論者斯蒂芬·霍金(Stephen Hawking)、物理學家馬克斯·泰格馬克(Max Tegmark)以及人工智能研究員斯圖爾特·拉塞爾(Stuart Russell)提出的敍事。在電影首映週末發表在《赫芬頓郵報》上的一篇文章中,三人寫道:“隨着好萊塢大片《超驗駭客》的上映……它帶來了關於人類未來的衝突願景,很容易將高度智能機器的概念視為純粹的科幻小説。但這將是一個錯誤,可能是我們有史以來最大的錯誤。”
大約在同一時期,Tegmark 創立了未來生命研究所,其使命是研究和促進人工智能安全。電影中德普的搭檔摩根·弗里曼(Morgan Freeman)是該研究所董事會成員,而曾在電影中有客串的 Elon Musk 在第一年捐贈了1000萬美元。對於 Cave 和 Dihal 來説,《超驗駭客》是流行文化、學術研究、工業生產和“億萬富翁資助的未來塑造之戰”之間多重糾葛的完美例證。
去年在 Altman 的世界巡迴倫敦站,當被問及他在推特上所説“人工智能是世界一直想要的技術”是什麼意思時,站在房間後面,面對着數百名聽眾,我聽到他給出了自己的起源故事:“我小時候非常緊張,讀了很多科幻小説,很多週五晚上都待在家裏玩電腦。但我一直對人工智能很感興趣,我覺得那會非常酷。”他上了大學,變得富有,並見證了神經網絡變得越來越好。“這可能非常好,但也可能真的很糟糕。我們要怎麼應對?”他回憶起 2015 年時的想法,“我最終創立了 OpenAI。”
**▍**為何你應該關心一羣書呆子對 AI 的爭論
好的,你已經明白了:沒人能就人工智能是什麼達成一致。但似乎每個人都同意的是,當前圍繞 AI 的爭論已遠遠超出了學術和科學範疇。政治和道德因素正在發揮作用,而這並沒有幫助大家將強對彼此的理解。
解開這個謎團很難。當某些道德觀點涵蓋了整個人類的未來,並將其錨定在一個無人能確切定義的技術上時,要想看清正在發生什麼變得尤為困難。
但我們不能就此放棄。因為無論這項技術是什麼,它即將到來,除非你與世隔絕,否則你將以這樣或那樣的形式使用它。而技術的形態,以及它解決和產生的問題,都將受到你剛剛讀到的這類人的思想和動機的影響,尤其是那些擁有最大權力、最多資金和最響亮聲音的人。
這讓我想到了 TESCREALists。等等,別走!我知道,在這裏引入另一個新概念似乎不公平。但要理解掌權者如何塑造他們構建的技術,以及他們如何向全球監管機構和立法者解釋這些技術,你必須真正瞭解他們的思維方式。
Gebru 在離開谷歌後創建了分佈式人工智能研究所,以及凱斯西儲大學的哲學家和歷史學家埃米爾·託雷斯(Émile Torres),他們追蹤了幾個技術烏托邦信仰體系對硅谷的影響。二人認為,要理解 AI 當前的狀況——為什麼像谷歌 DeepMind 和 OpenAI 這樣的公司正在競相構建通用人工智能,以及為什麼像 Tegmark 和 Hinton 這樣的末日預言者警告即將到來的災難——必須通過託雷斯所稱的 TESCREAL 框架來審視這個領域。
這個笨拙的縮寫詞取代了一個更笨拙的標籤列表:超人類主義、外展主義、奇點主義、宇宙主義、理性主義、有效利他主義和長期主義。關於這些世界觀的許多內容(以及將會有的更多內容)已經被撰寫,所以我在這裏就不贅述了。(對於任何想要深入探索的人來説,這裏充滿了層層遞進的兔子洞。選擇你的領域,帶上你的探險裝備吧。)
這一系列相互重疊的思想觀念對西方科技界中某種類型的天才思維極具吸引力。一些人預見到人類的永生,其他人則預測人類將殖民星辰。共同的信條是,一種全能的技術——無論是通用人工智能還是超級智能,選邊站隊吧——不僅觸手可及,而且不可避免。你可以在諸如 OpenAI 這樣的前沿實驗室裏無處不在的拼命態度中看到這一點:如果我們不製造出 AGI,別人也會。
更重要的是,TESCREA 主義者認為 AGI 不僅能解決世界的問題,還能提升人類層次。“人工智能的發展和普及——遠非我們應該害怕的風險——是我們對自己、對子女和對未來的一種道德義務,” Andreessen 去年在一篇備受剖析的宣言中寫道。我多次被告知,AGI 是讓世界變得更美好的途徑——這是 DeepMind 的首席執行官和聯合創始人戴米斯·哈薩比斯(Demis Hassabis)、新成立的微軟 AI 的首席執行官及 DeepMind 的另一位聯合創始人Mustafa Suleyman、Sutskever、Altman 等人告訴我的。
但正如 Andreessen 所指出的,事情是一體兩面的。技術烏托邦的反面就是技術地獄。如果你相信自己正在建設一種強大到足以解決世界上所有問題的技術,你很可能也相信它有可能完全出錯的風險。當二月份在世界政府峯會上被問及什麼讓他夜不能寐時,Altman 回答説:“都是科幻小説裏的東西。”
這種緊張局勢是 Hinton 在過去一年裏不斷強調的。這也是 Anthropic 等公司聲稱要解決的問題,是 Sutskever 在他的新實驗室關注的焦點,也是他去年希望 OpenAI 內部特別團隊專注的,直到在公司如何平衡風險與回報上的分歧導致該團隊大多數成員離職。
當然,末日論也是宣傳的一部分。(“聲稱你創造了某種超級智能的東西有利於銷售數字,”迪哈爾説,“就像是,‘請有人阻止我這麼好,這麼強大吧。’”)但不論繁榮還是毀滅,這些人號稱要解決的到底是什麼問題?誰的問題?我們真的應該信任他們建造的東西以及他們向我們的領導人講述的內容嗎?
Gebru 和 Torres(以及其他一些人)堅決反對:不,我們不應該。他們對這些意識形態及其可能如何影響未來技術,特別是 AI 的發展持高度批評態度。從根本上講,他們將這些世界觀中幾個以“改善”人類為共同焦點的觀念與 20 世紀的種族優生運動聯繫起來。
他們認為,一個危險是,資源向這些意識形態要求的科技創新轉移,從構建 AGI 到延長壽命再到殖民其他星球,最終將以數十億非西方和非白人羣體的利益為代價,使西方和白人受益。如果你的目光鎖定在幻想的未來上,很容易忽視創新的當下成本,比如勞工剝削、種族和性別偏見的根深蒂固以及環境破壞。
Bender 反思這場通往 AGI 競賽的犧牲時問道:“我們是否在試圖建造某種對我們有用工具?”如果是這樣,那是為誰建造的,我們如何測試它,它工作得有多好?“但如果我們要建造它的目的僅僅是為了能夠説我們做到了,這不是我能支持的目標。這不是值得數十億美元的目標。”
Bender 説,認識到 TESCREAL 意識形態之間的聯繫讓她意識到這些辯論背後還有更多的東西。“與那些人的糾纏是——”她停頓了一下,“好吧,這裏不僅僅只有學術思想。其中還捆綁着一種道德準則。”
當然,如果這樣缺乏細微差別地闡述,聽起來好像我們——作為社會,作為個人——並沒有得到最好的交易。這一切聽起來也很愚蠢。當 Gebru 去年在一次演講中描述了 TESCREAL 組合的部分內容時,她的聽眾笑了。也的確很少有人會認同自己是這些思想流派的忠實信徒,至少在極端意義上不會。
但如果我們不瞭解那些構建這項技術的人是如何看待它的,我們又怎麼能決定我們要達成什麼樣的協議呢?我們決定使用哪些應用程序,我們想向哪個聊天機器人提供個人信息,我們在社區支持哪些數據中心,我們想投票給哪些政治家?
過去常常是這樣:世界上有一個問題,我們就建造一些東西來解決它。而現在,一切都顛倒了:目標似乎是建造一台能做所有事情的機器,跳過在找到解決方案前緩慢而艱難地識別問題的工作。
正如 Gebru 在那次演講中所説,“一台能解決所有問題的機器:如果這都不是魔法,那它是什麼呢?”
當直截了當地問及什麼是人工智能時,很多人會迴避這個問題。Suleyman 不是這樣。四月份,微軟 AI 的首席執行官站在 TED 的舞台上,告訴觀眾他對六歲侄子提出同樣問題時的回答。Suleyman 解釋説,他能給出的最佳答案是,人工智能是“一種新型的數字物種”——一種如此普遍、如此強大的技術,以至於稱其為工具已不再能概括它能為我們做什麼。
“按照目前的發展軌跡,我們正走向某種我們都難以描述的出現,而我們無法控制我們不理解的事物,”他説,“因此,比喻、心智模型、名稱——這些都至關重要,只有這樣我們才能在最大限度利用人工智能的同時限制其潛在的負面影響。”
語言很重要!我希望從我們經歷過的曲折、轉折和情緒爆發中,這一點已經很清楚了。但我也希望你在問:是誰的語言?又是誰的負面影響?Suleyman 是一家科技巨頭的行業領導者,該公司有望從其 AI 產品中賺取數十億美元。將這些產品的背後技術描述為一種新型物種,暗示着某種前所未有的東西,它具有我們從未見過的自主性和能力。這讓我感到不安,你呢?
我無法告訴你這裏是否有魔法(諷刺與否)。我也無法告訴你數學是如何實現 Bubeck 和其他許多人在這項技術中看到的(目前還沒有人能做到)。你必須自己下結論。但我可以揭示我自己的觀點。
在 2020 年寫到 GPT-3 時,我説人工智能最偉大的把戲就是説服世界它存在。我仍然這麼認為:我們天生就會在表現出特定行為的事物中看到智慧,不管它是否存在。在過去幾年裏,科技行業本身也找到了理由來説服我們相信人工智能的存在。這使我對接收到的許多關於這項技術的聲明持懷疑態度。
與此同時,大型語言模型讓我感到驚奇。它們究竟可以做什麼以及如何做到,是我們這個時代最令人興奮的問題之一。
也許人類一直對智慧着迷——它是什麼,還有什麼擁有它。Pavlick 告訴我,哲學家長期以來一直在構想假設場景,來想象遇到非人類來源的智能行為意味着什麼——比如説,如果一波浪衝刷海灘,當它退去時在沙灘上留下了一行字,拼湊成一首詩?
通過大型語言模型——通過它們的微笑面具——我們面臨着前所未有的思考對象。“它將這個假設的東西變得非常具體,”Pavlick 説,“我從未想過一段語言的生成是否需要智慧,因為我從未處理過來自非人類的言語。”
人工智能包含很多東西。但我不認為它是類人的。我不認為它是解決我們所有(甚至大部分)問題的答案。它不是 ChatGPT、Gemini 或 Copilot,也不是神經網絡。它是一種理念、一種願景,一種願望的實現。理念受到其他理念、道德、準宗教信念、世界觀、政治和直覺的影響。“人工智能”是描述一系列不同技術的有用簡略説法。但人工智能並不是單一事物;從來都不是,不管品牌標識多麼頻繁地烙印在外包裝上。
“事實是,這些詞彙——智力、推理、理解等——在需要精確界定之前就已經被定義了,”Pavlick 説,“當問題變成‘模型是否理解——是或否?’時,我並不喜歡,因為,嗯,我不知道。詞語會被重新定義,概念會不斷進化。”
我認為這是對的。我們越早能後退一步,就我們不知道的事達成共識,並接受這一切尚未塵埃落定,我們就能越快地——我不知道,或許不是手牽手唱起 Kumbaya(《歡聚一堂》),但我們可以停止互相指責。