人工智能何時會比人類更聰明?別問——彭博社
Gideon Lichfield
終究沒那麼聰明。
攝影師:Hiroshi Watanabe/Digital Vision via Getty Images
如果你聽説過“通用人工智能”(AGI)這個詞,它很可能讓你聯想到類人的智能,比如電影《她》中那個嗓音甜美的AI戀人,或是像《終結者》裏的天網那樣的超人類智能。無論如何,都是些科幻且遙遠的東西。
但現在,科技行業內外越來越多人預言,AGI或“人類水平”的AI將在不久的將來出現。
這些人或許真心相信自己的説法,但至少部分是為了炒作,目的是讓投資者向AI公司砸下數十億美元。沒錯,重大變革幾乎肯定即將到來,你該為此做好準備。但對大多數人而言,將其稱為AGI往好了説是分散注意力,往壞了説是蓄意誤導。商業領袖和政策制定者需要更清晰地理解即將發生的事。幸運的是,辦法是有的。
還有多少年?
OpenAI的山姆·奧爾特曼、Anthropic的達里奧·阿莫代以及xAI的埃隆·馬斯克(他最不為人知的身份)最近都表示,AGI或類似的東西將在一兩年內問世。更謹慎的聲音如谷歌DeepMind的德米斯·哈薩比斯和Meta的揚·勒昆則認為至少還需五到十年。最近,這種論調已進入主流,《紐約時報》的埃茲拉·克萊因和凱文·魯斯等記者也主張社會應儘快為類似AGI的事物做好準備。
我説“類似”是因為這些人常常在AGI(人工通用智能)這一術語上打擦邊球,隨後又退回到更含糊的表述,比如“強大的人工智能”。而他們所指的含義差異巨大——從能像人類一樣完成幾乎任何單項認知任務但仍可能高度專業化的AI(克萊因、魯斯),到能做出諾貝爾獎級別的工作(阿莫迪、阿爾特曼),再到在所有方面像真人一樣思考(哈薩比斯),或是在物理世界中運作(勒昆),又或者僅僅是“比最聰明的人類更聰明”(馬斯克)。
那麼,這些“真的”算AGI嗎?
事實上,這並不重要。如果真存在AGI這種東西——我將論證其並不存在——它也不會是我們突然跨越的明確界限。對鼓吹者而言,AGI現在只是“某種極具顛覆性的事物即將到來”的簡寫:這種軟件不僅能編寫應用程序、起草學校作業、為孩子創作睡前故事或預訂假期,還可能讓大批人失業、實現重大科學突破,並賦予黑客、恐怖分子、企業和政府令人恐懼的力量。
這一預測值得認真對待,稱之為AGI確實能讓人警醒並側耳傾聽。但與其討論AGI或人類級別AI,不如讓我們談談不同類型的人工智能,以及它們能做什麼、不能做什麼。
大語言模型無法做到的事
自70年前人工智能競賽拉開帷幕以來,某種形式的人類級別智能就一直是目標。數十年來,最頂尖的成果僅限於“狹義AI”,比如IBM擊敗國際象棋冠軍的深藍,或谷歌能預測蛋白質結構的AlphaFold——後者為創造者(包括哈薩比斯)贏得了去年諾貝爾化學獎的榮譽。它們都遠超人類水平,但僅限於一項高度特定的任務。
如果AGI(人工通用智能)突然顯得近在咫尺,那正是因為支撐ChatGPT及其同類產品的大語言模型似乎既更接近人類,又更具通用性。
大語言模型以平實語言與我們互動,能對大多數問題給出至少看似合理的答案。它們能創作相當不錯的小説——至少在篇幅極短時(長篇故事會出現角色和情節混亂)。在編程、醫學/司法考試、數學題等技能測試中,它們的分數持續攀升,逐步推理能力和複雜任務處理能力也在提升。當最激進的AI從業者談論AGI即將來臨時,本質上指這些模型的進階版本。
這並非説大語言模型影響有限。部分軟件公司已計劃減少工程師招聘。醫療診斷、法律文書起草、研究簡報撰寫、營銷方案制定等流程固定的工作,人類工作者至少能部分交由AI處理——有些已實現。
這將提升工作效率,可能導致某些崗位消失。但未必盡然:被譽為"教父"的諾獎得主計算機科學家傑弗裏·辛頓曾預言AI將很快取代放射科醫生,如今美國卻面臨放射科醫生短缺。
但從重要意義上來説,大語言模型仍屬於"狹義人工智能"。它們能出色完成某項任務,卻在看似相關的另一項任務上表現糟糕——這種現象被稱為鋸齒邊界。
例如,AI可能輕鬆通過律師資格考試,卻無法將客户對話整理成法律簡報。它能完美回答某些問題,卻經常在其他問題上出現"幻覺"(即虛構事實)。大語言模型擅長解決有明確規則的問題,但在某些新測試中,當規則變得模糊時,那些在其他基準測試得分80%以上的模型甚至難以達到個位數成績。
即便大語言模型開始攻克這些測試,它們仍是狹義AI。解決一個定義明確、範圍有限的難題是一回事,而應對人類日常工作則是另一回事。
即使數學家也不會整天只做數學題。人們處理無數無法被基準測試衡量的事務,因為這些並非有標準答案的封閉問題。我們權衡矛盾事項、放棄失敗計劃、為認知侷限留出餘地、制定變通方案、憑直覺行動、察言觀色,最重要的是——持續與那些高度不可預測且非理性的人類智慧體互動。
事實上,有一種觀點反對大語言模型(LLM)能夠完成諾貝爾獎級別的工作,認為最傑出的科學家不是那些知識最淵博的人,而是那些挑戰傳統智慧、提出不太可能的假設並提出別人未曾想到的問題的人。這與LLM的設計初衷幾乎相反,LLM旨在根據所有可用信息找到最可能的共識答案。
因此,也許有一天我們能夠構建一個LLM,它可以像人類一樣完成幾乎任何單獨的認知任務。它可能能夠將一系列任務串聯起來解決更大的問題。根據某些定義,這將達到人類水平的人工智能。但如果你把它放在辦公室裏工作,它仍然會像磚頭一樣愚蠢。
人類智能並非“通用”
通用人工智能(AGI)概念的一個核心問題在於,它基於一種高度以人類為中心的對智能的理解。
大多數人工智能研究將智能視為一種或多或少線性的衡量標準。它假設機器在某個時刻會達到人類水平或“通用”智能,然後可能是“超級智能”,此時它們要麼變成天網》並毀滅我們,要麼變成仁慈的神明,滿足我們所有的需求。
但有一種強有力的觀點認為,人類智能實際上並非“通用”。我們的心智是為了應對成為我們這一非常具體的挑戰而進化的。我們的體型和形狀、我們能消化的食物種類、我們曾經面對的捕食者、我們親屬羣體的規模、我們的交流方式,甚至我們感知到的重力強度和光的波長,都決定了我們心智擅長什麼。其他動物擁有許多我們缺乏的智能形式:蜘蛛能通過網的振動區分捕食者和獵物,大象能記住長達數千英里的遷徙路線,而章魚的每隻觸手實際上都有自己的思想。
在一篇2017年為《連線》撰寫的文章中*《連線》*,凱文·凱利提出,我們不應將人類智能視為某種進化樹的頂端,而應視其為地球智能集羣中的一個點,而這個集羣本身在宇宙所有可能的外星和機器智能中不過是微小的一抹。他寫道,這徹底打破了“超級人工智能神話”——那種能全方位遠超我們的存在。相反,我們將會看到“數百種超越人類的新思維物種,大多與人類迥異,沒有一種是萬能的,也沒有哪種能瞬間成神,一舉解決重大問題。”
這是特性而非缺陷。對於大多數需求,我推測專業化智能將比儘可能模仿我們的通才更經濟可靠,更不用説它們不太可能揭竿而起要求權利。
智能體集羣
這些觀點並非否定未來幾年AI可能實現的巨大飛躍。
已初現端倪的突破是“代理型”AI。這類智能體仍以大型語言模型為基礎,但不僅能分析信息,還可執行如完成網購或填寫網頁表單等操作。例如Zoom公司即將推出能掃描會議記錄生成待辦事項、起草跟進郵件並安排下次會議的智能體。目前AI代理表現參差不齊,但如同語言模型的發展,預計其將快速進化到能自動化相當複雜流程的程度。
有人可能會聲稱這就是通用人工智能。但再次強調,這種説法只會帶來困惑而非啓發。智能體並非"通用",而更像是思維極度單一的個人助手。你會有幾十個這樣的助手。即使它們讓你的生產力飆升,管理它們就像同時操作幾十個不同的軟件應用——就像你現在已經在做的那樣。也許你會再僱一個智能體來管理所有其他智能體,但它同樣只能完成你設定的目標。
當數百萬或數十億智能體在網絡上互動時會發生什麼,誰也説不準。或許就像交易算法曾引發無法解釋的市場"閃崩"那樣,它們會觸發不可阻擋的連鎖反應,導致半個互聯網癱瘓。更令人擔憂的是,惡意行為者可能動員大量智能體制造混亂。
儘管如此,大語言模型及其智能體只是人工智能的一種類型。幾年內,我們可能會出現根本不同的形態。例如,Meta公司LeCun的實驗室正在與其他機構共同嘗試構建所謂的具身人工智能。
該理論認為,通過將AI置於現實世界的機器人身體或模擬環境中,它可以學習物體、位置和運動——這些構成人類理解的基礎要素,更高層次的概念由此產生。相比之下,純粹基於海量文本訓練的大語言模型,表面上模仿了人類思維過程,但沒有證據表明它們真正擁有這些思維,甚至沒有證據顯示它們具有任何有意義的思考能力。
具身化AI會催生真正會思考的機器,還是僅僅造就靈巧的機器人?目前尚無法斷言。但即使實現前者,將其稱為通用人工智能仍具誤導性。
回到進化論視角:正如要求人類像蜘蛛或大象般思考是荒謬的,期待一個不眠不休、無需飲食交配——更遑論建立友誼、道德掙扎或思考生死——的六輪四臂橢圓機器人像人類一樣思考同樣荒誕。它或許能攙扶祖母從客廳到卧室,但其任務理解與執行方式將與人類截然不同。
AI未來將實現的諸多能力,今日我們甚至難以想象。追蹤和理解其發展的最佳方式,是停止將其與人類或影視形象類比,持續追問:它實際能做什麼?
更多彭博觀點:
- 貿易戰真是"幫助"美國AI企業的妙招嗎:戴夫·李
- 抵抗是徒勞的,但AI或許例外:尼爾·弗格森
- 蔡崇信正成為AI領域的理性之聲:凱瑟琳·索貝克
獲取更多彭博觀點?輸入OPIN <GO>。 或訂閲****我們的每日簡報。