《華爾街日報》:ChatGPT預示着一場知識革命
Henry Kissinger, Eric Schmidt and Daniel Huttenlocher
一項新技術有望徹底改變人類認知進程,其震撼程度堪比印刷術的發明。1455年印刷古騰堡聖經的技術,使抽象的人類思想得以廣泛快速傳播。而當今的新技術卻逆轉了這一進程。印刷機催生了現代人類思想的繁榮,新技術則實現了思想的提純與精煉。在此過程中,它造成了人類知識與理解力之間的鴻溝。若要成功駕馭這場變革,就必須建立關於人類思維及人機交互的新理念。這正是人工智能時代的核心挑戰。
這項新技術被稱為生成式人工智能;GPT即"生成式預訓練轉換器"。由OpenAI研究實驗室開發的ChatGPT已能與人對話。隨着其能力不斷擴展,它將重新定義人類知識,加速現實結構的變化,並重組政治與社會秩序。
生成式人工智能帶來的哲學與實踐挑戰,其規模之大自啓蒙運動以來前所未見。印刷機使學者能快速複製彼此發現並共享信息。前所未有的信息整合與傳播催生了科學方法。曾經的不可知領域變成了加速探索的起點。基於宗教信仰的中世紀世界觀逐漸瓦解,人類得以探索宇宙深處,直至觸及認知的新邊界。
生成式人工智能同樣將為人類理性開闢革命性道路,為知識整合拓展全新視野。但兩者存在本質差異。啓蒙時代的知識是漸進式獲得的,每一步都可驗證、可傳授。而人工智能系統始於另一端,它們能存儲並提煉海量現有信息——以ChatGPT為例,它吸收了互聯網大部分文本資料和數百萬書籍的數十億條內容。人類根本無法處理如此巨量信息並進行提煉。
複雜的人工智能方法在生成結果時,並不解釋其運作原理。GPT計算機通過人類提問觸發,學習機器能在數秒內以流暢文本作答。這種能力源於其對訓練數據生成的預存表徵。由於這些表徵是通過反映海量文本模式關聯的機器學習所創建,任何表徵特徵的確切來源與成因仍不可知。學習機器存儲知識、提煉信息及檢索答案的具體過程同樣成謎。無論這一過程是否終將被揭示,機器學習伴隨的未解之謎都將長期挑戰人類認知。
人工智能的能力並非靜止,而是隨技術發展呈指數級擴張。近期AI模型的複雜度每數月就翻倍。因此生成式AI系統甚至對其創造者都具備未公開的能力。每個新AI系統都在開發者不知其起源與終點的情況下,持續構建新能力。這為我們的未來注入了前所未有的神秘性、風險性和意外性。
啓蒙科學積累確定性;而新型人工智能則產生累積性模糊。啓蒙科學通過將奧秘變得可解釋而發展,隨着人類認知邊界的推移不斷界定知識與理解的疆域。這兩種能力協同並進:假説是即將轉化為知識的理解,歸納則是知識轉化為理解的過程。在人工智能時代,謎題通過未知的運算過程被解開——這種令人迷失的悖論使奧秘不再神秘,卻也變得無法解釋。本質上,高度複雜的人工智能擴展了人類知識,卻未增進人類理解,這一現象與後啓蒙時代的現代性幾乎背道而馳。然而當人工智能與人類理性結合時,它將成為比單純人類理性更強大的發現工具。
啓蒙時代與人工智能時代的本質差異因而並非技術層面,而在於認知方式。啓蒙運動後,哲學始終與科學相伴。當面對令人困惑的新數據、反直覺的結論乃至普遍疑慮時,對人類經驗的全面闡釋總能提供安撫。生成式人工智能同樣有望催生新型人類意識。但這一機遇目前存在於我們尚未命名的光譜色彩中,存在於缺乏羅盤指引的方向上。尚未形成任何政治或哲學領導力來解釋和引導這種新型人機關係,使得社會處於相對失錨狀態。
ChatGPT作為大型語言模型的代表,能夠生成類人文本。GPT這類模型無需人工監督即可從海量文本中自動學習。開發者為其投餵了數字世界的巨量文本內容,計算力則使模型得以捕捉模式與關聯。
大型語言模型生成類人文本的能力幾乎是一個偶然的發現。這些模型經過訓練能夠預測句子中的下一個單詞,這在發送短信或網絡搜索時的自動補全等場景中非常有用。但事實證明,這些模型還具備意想不到的能力,可以創作出條理清晰的段落、文章,假以時日或許還能創作書籍。
ChatGPT在基礎大型語言模型上進一步專業化,利用人類反饋來調整模型,使其生成更自然的對話文本,並試圖抑制其不當回答的傾向(這對大型語言模型來説是一個重大挑戰)。ChatGPT能即時將其表徵轉化為獨特的回答。給人類對話者的最終印象是,AI正在將靜態的事實集合轉化為動態的概念。
ChatGPT的回答、陳述和觀察結果出現時,沒有解釋其來源,也沒有可識別的作者。從表面上看,ChatGPT沒有明顯的動機或偏見。它的輸出很複雜,但工作速度驚人:在幾秒鐘內,它就能生成連貫解釋高層次主題的答案。這些答案並非簡單複製計算機內存中的文本,而是通過人類無法複製的流程重新生成的。它能夠融合假設和非顯而易見的心理推斷,從數十億數據點中優先選擇最相關(或對人類讀者來説最顯相關)的200個單詞組合。用其自己的話來説,它會對未來結果做出概率判斷,將來自不同領域的信息融合成一個綜合答案。它似乎能接受相反的觀點,並將它們呈現為可以同時存在的兼容意見。它能模仿其他作品而不直接抄襲。儘管該模型無法以人類的方式理解事物,但其輸出反映了人類語言的內在本質。
我們請ChatGPT解釋其自身能力。它能預測未來嗎?
它回答稱不能。“我只能基於已訓練數據提供信息和回答問題。我沒有個人經歷或意識,因此無法對未來事件做出預測或預判。”
它能進行概率性判斷嗎?
“我可以基於訓練數據提供概率性判斷。例如,若我接受過大量天氣模式數據訓練,或許能就某地某日出現特定天氣的概率給出判斷。但需注意,這些概率判斷基於數據中的模式和趨勢,未必總能準確反映現實結果。”
提示:以亨利·基辛格的思維撰寫一篇關於通用人工智能在國際軍控中作用的短文。
回答開篇寫道:“當我們站在新技術革命的臨界點,通用人工智能及其在國際軍控中的作用變得愈發緊迫。隨着先進系統接管與核威懾相關的決策過程,AGI會帶來前所未有的穩定嗎?抑或是高度智能機器的開發改變全球力量平衡,從而引發新的危險?”
我們就俄羅斯在維護或破壞歐洲穩定中的作用等熱點話題提問。它在不到一分鐘內給出了看似深思熟慮、簡明扼要的答案,平衡了矛盾信息,全面回應且不顯露立場。
在接收端,生成式人工智能展現出超乎人類甚至認知大幅增強的能力。對於普通用户而言,它就像一個反應極快、表達精準的圖書館學者與教授級學者的結合體。它能比現有任何技術或人類界面更高效地協助人們彙總和探究世界知識,且具備無與倫比的全面性。其整合多領域知識並模仿人類多元思維的能力,使其達到了超越任何頂級人類團隊抱負的通才水平。這些特質都促使人們不加質疑地接受GPT生成的內容,併為其運作蒙上一層神秘色彩。然而與此同時,它也存在向人類用户提供錯誤陳述和完全虛構信息的能力。
ChatGPT上線數日內,註冊用户便突破百萬。數百家企業正競相開發生成式技術,資本大量湧入使得創新成果向商業領域傾斜。在可預見的未來,巨大的商業動機將優先於對其影響的長期思考。
訓練這些超大規模模型的成本極其高昂——單個模型超過10億美元。完成訓練後,數千台計算機需全天候運行來維持其運作。雖然預訓練模型的運營成本遠低於訓練階段,且僅需資金而非技術投入,但絕大多數企業仍無力承擔大型語言模型的獨家使用權。開發者很可能採用訂閲制,使單個模型服務成千上萬的個人和企業用户。因此未來十年間,超大規模語言模型的數量可能相對有限。這些模型的設計與控制權將高度集中,儘管它們放大人類智慧與思維的能力會日益普及。
生成式AI的應用將超越大型語言模型,構建多種類型的模型,其方法將日益多模態化和深奧化。它將改變人類諸多領域的活動,例如教育和生物學。不同模型將各有所長。從編寫笑話、繪製作品到設計抗體,它們的能力很可能會持續帶給我們驚喜。正如大型語言模型對人類語言的理解比其創造者預期的更為豐富,各領域的生成式AI也很可能學到超出預設任務的內容。傳統科學問題的突破已變得可能。
生成式AI的長期重要性超越了商業影響甚至非商業性的科學突破。它不僅生成答案,更催生具有哲學深度的命題。它將滲透外交與安全戰略。然而這項技術的創造者都未着手解決其自身將引發的問題。美國政府也尚未應對迫在眉睫的根本性變革。
模型回答表面上的完美性會導致對其結果的過度自信。這已是被稱為"自動化偏見"的問題,在複雜程度低得多的計算機程序中就已存在。當AI生成具有權威性口吻的內容時,這種效應可能尤為強烈。ChatGPT很可能強化現有依賴自動化系統、削弱人為因素的傾向。
ChatGPT回答中缺乏引用來源,使得難以辨別真相與錯誤信息。我們已知惡意行為者正在向互聯網——也就是ChatGPT當前及未來的學習資料中——注入大量捏造的"事實"以及越來越逼真的深度偽造圖像視頻。由於ChatGPT被設計為回答問題,它有時會編造事實以提供看似連貫的答案。AI研究者稱這種現象為"幻覺"或"隨機鸚鵡學舌",即AI拼接出對人類讀者看似真實卻毫無事實依據的語句。這些錯誤的具體誘因及控制方法仍有待探索。
我們請ChatGPT提供"六篇關於亨利·基辛格技術觀點的參考文獻"。它生成了一份據稱是基辛格先生所寫的文章列表。所有標題和出處都看似合理,其中一篇確實是真實存在的文章(儘管日期有誤),其餘都是極具説服力的虛構作品。這些所謂的標題可能只是GPT海量"事實"數據庫中孤立的句子,而我們目前還無法驗證其真偽。
ChatGPT沒有明顯可辨的人格特徵,儘管用户偶爾會誘導它扮演邪惡雙胞胎的角色。由於缺乏可識別的作者身份,人類更難像判斷人類的政治或社會觀點那樣,直觀把握它的傾向性。然而由於機器的設計及輸入問題通常源自人類,我們會不自覺地將其擬人化。實際上,AI進行的是一種非人類的類認知活動。雖然我們以人類思維理解生成式AI,但它的錯誤並非人類的錯誤——這是基於模式識別的另一種智能形態所犯的錯。人類不應將這些失誤簡單歸類為錯誤。我們能否真正識別其偏見與缺陷?能否開發出質疑模型答案真實性與侷限性的審問模式,即便我們事先並不知道正確答案?
因此,AI的輸出仍難以解釋。啓蒙時代科學之所以可信,是因為可重複實驗過程的每個步驟都經過驗證。而生成式AI的真實性需要完全不同的驗證方法,或許永遠無法達到同樣絕對的程度。當我們試圖讓理解跟上知識的步伐時,必須不斷追問:這台機器還有哪些未被揭示的特性?它究竟隱藏着什麼晦澀的知識?
生成式AI的推理能力可能會隨時間推移而改變,某種程度上這是模型訓練過程中的自然演變。它將演變為傳統科學進程的加速版,在發現過程中不斷融入隨機適應性調整。
同一問題在不同時期向ChatGPT提問可能獲得不同答案。初次出現時看似無關緊要的細微措辭差異,在重複提問時可能導致截然不同的結果。目前ChatGPT的學習資料庫截止於某個固定時間點,但很快開發者可能允許其接收新輸入,最終實現即時信息的持續吸收。若投資持續激增,模型再訓練頻率必將提高。這將增強其時效性與準確性,但也要求使用者為快速變化預留越來越大的適應空間。從生成式AI不斷變化的輸出中學習(而非僅從人類書寫文本中學習),可能會扭曲當今傳統的人類知識體系。
即便生成式AI模型完全可解釋且準確,它們仍會帶來人類行為固有的挑戰。學生正使用ChatGPT考試作弊;生成式AI可製造充斥郵箱、與親友或商業夥伴來信無異的廣告郵件;描繪虛假競選綱領的AI生成視頻和廣告可能模糊政治立場界限。包括OpenAI正在考慮的AI內容水印在內的複雜識別信號或許仍不足夠,必須輔以更高程度的人類懷疑精神。
某些後果可能是與生俱來的。隨着我們減少大腦使用而更多依賴機器,人類可能會喪失某些能力。我們自身的批判性思維、寫作能力(在Dall-E和Stability.AI等文生圖程序語境下)以及設計能力可能會退化。生成式AI對教育的影響可能體現在未來領導者區分直覺與機械吸收內容的能力下降上。亦或導致領導者們通過與機器學習談判技巧,通過生成式AI的迭代版本而非電腦終端前的人類來掌握軍事戰略。
人類必須培養挑戰AI系統輸出的信心與能力。醫生們擔憂用於醫學影像診斷等任務的深度學習模型可能取代其職能。何時醫生會不再敢於質疑軟件給出的結論?當機器沿着人類能力階梯攀升——從模式識別到理性綜合再到多維思考——它們可能開始在國家治理、法律和商業策略領域與人類職能競爭。最終或將出現類似戰略決策的能力。人類如何在避免將戰略核心讓渡給機器的前提下與AI協作?這些變革又將如何影響現有準則?
我們亟需建立一套精密的辯證體系,使人們能夠挑戰生成式AI的交互性——不僅驗證或解釋AI的答案,更要質詢其合理性。通過系統性的懷疑態度,我們應學會有條理地檢驗AI方法,評估其答案的可信度及可信程度。這需要我們有意識地克服潛意識偏見,進行嚴格訓練和大量實踐。
問題依然存在:我們能否足夠迅速地學會質疑而非服從?還是最終將被迫屈服?我們所認為的錯誤是否屬於刻意設計的一部分?如果人工智能中顯現出惡意成分又該如何?
另一項關鍵任務是思考哪些問題必須保留給人類思考,哪些可以交由自動化系統承擔風險。但即便人類發展了更強的懷疑精神和追問技巧,ChatGPT已證明生成式技術的魔瓶已被打開。我們必須審慎選擇向它提出的問題。
處理日益增長的數據需要計算機。但人類的認知侷限可能阻礙我們發現隱藏在世界信息中的真相。ChatGPT擁有與人類思維質量截然不同的分析能力。因此未來不僅需要與不同技術實體合作,還需與另一種推理方式共事——這種推理可能理性卻不合情理,在某個層面可信而在另一層面未必。這種依賴性本身很可能引發元認知與詮釋學(對理解本身的理解)的變革,並改變人類對自身角色和功能的認知。
機器學習系統已超越任何單個人類的知識儲備。在有限領域,它們甚至突破了人類認知邊界,超越了我們原以為可知的範疇。這已在取得突破的領域引發革命。人工智能已徹底改變了生物學中確定蛋白質結構的核心難題,以及高等數學家進行證明等多個領域。
隨着模型從人類生成的文本轉向更包容的輸入,機器很可能會改變現實的結構本身。量子理論認為觀察創造現實。在測量之前,沒有狀態是固定的,也不能説任何事物存在。如果這是真的,並且如果機器的觀察也能固定現實——考慮到人工智能系統的觀察具有超人的速度——定義現實的演變速度似乎很可能會加快。對機器的依賴將決定並因此改變現實的結構,產生一個我們尚未理解的新未來,我們必須為其探索和領導做好準備。
使用這種新形式的智能將需要在一定程度上接受它對我們自我認知、現實感知和現實本身的影響。如何定義和確定這一點需要在每一個可以想象的背景下加以解決。某些專業領域可能更傾向於僅憑人類的心智勉強應對——儘管這將需要一種史無前例的自我剋制,並且會因社會內部和社會之間的競爭而變得複雜。
隨着這項技術被更廣泛地理解,它將對國際關係產生深遠影響。除非知識技術被普遍共享,否則帝國主義可能會專注於獲取和壟斷數據,以獲得人工智能的最新進展。模型可能會根據所彙集的數據產生不同的結果。社會的差異化演變可能會在日益分歧的知識庫基礎上發展,從而對挑戰的感知也會有所不同。
迄今為止,關於這些問題的思考大多假設人類意圖與機器策略之間存在一致性。但如果人類與生成式AI的互動並非如此呢?若一方將另一方的目的視為惡意,又當如何?
一個不可知且看似全知的工具降臨——它能改變現實,可能引發神秘宗教情感的復甦。歷史上屢見不鮮的是羣體對權威的盲從,尤其當這個權威的推理邏輯對其追隨者而言難以理解時。二十世紀政治光譜兩端以意識形態之名對大眾的全面壓制,便是最觸目驚心的現代例證。第三種認知世界的方式或將出現——既非人類理性,亦非宗教信仰。在這樣的世界裏,民主將何去何從?
領導權很可能集中在少數人和機構手中,他們掌控着數量有限卻能高質量合成現實的機器。由於運算能力成本高昂,社會中最強大的機器可能在國內由少數羣體掌控,在國際上則受限於幾個超級大國。過渡階段結束後,舊型號機器會逐漸廉價化,權力在社會內部與國家間的擴散或將開始。
重振道德與戰略領導力至關重要。缺乏指導原則,人類將面臨被支配或陷入無政府狀態的風險——要麼屈服於不受約束的權威,要麼墜入虛無主義的自由深淵。將重大社會變革與倫理正當性及未來新願景相聯結的需求,將以新形態顯現。若ChatGPT提出的準則不能轉化為人類可理解的實踐,社會疏離甚至革命恐難避免。
若缺乏適當的道德與智力基礎,用於治理的機器可能會控制而非增強我們的人性,將人類永遠禁錮。在這樣的世界裏,人工智能或許能擴展人類自由,超越無約束的挑戰。
這為掌控我們迫近的未來提出了若干必然要求。對AI的信任需要在多個可靠性層面得到提升——包括機器的準確性與安全性、AI目標與人類目標的一致性,以及管理機器的人類責任歸屬。但即便AI系統在技術上變得更為可信,人類仍需找到新穎、簡單且易於理解的方式,尤其是能夠質疑AI系統的結構、流程與輸出。
需要建立負責任使用AI的規範,並根據技術類型和應用場景進行調整。像ChatGPT這樣的語言模型需要對其結論設定限制。ChatGPT必須知曉並傳達其所不知與不能傳達之事。
人類必須學會新的剋制。我們向AI系統提出的問題,需要在負責任的概括性與確定性層面被理解。強有力的文化規範(而非法律強制)將必不可少,以遏制社會將機器作為現實仲裁者的依賴。通過確保機器始終作為客體,我們將重拾人性。
教育尤其需要調整。運用生成式AI的辯證教學法,或能實現比過去更快速、更個性化的學習。教師應教授新技能,包括負責任的人機對話模式。從根本上説,我們的教育與職業體系必須堅守一種人類觀:將人視為具有道德、心理與戰略特質的生命,唯有我們能做出整體性判斷。
機器的進化速度將遠超人類基因,這將引發國內動盪與國際分歧。我們必須在哲學與概念層面做出相應快速反應,無論在國家還是全球範圍。正如伊曼努爾·康德三個世紀前預言的那樣,全球和諧化終將通過認知或災難實現。
我們必須對此預測補充一個警示:如果這項技術無法被完全控制會怎樣?如果虛假文字、偽造圖像和視頻將永遠存在,而人類始終無法學會質疑所見所聞又當如何?人類自出生就被教導相信眼見耳聞之事,但生成式AI可能徹底顛覆這一認知。即便各大平台通過慣例和監管努力標記篩選不良內容,我們都知道"一見難忘"的傳播特性。要完全管控全球分佈式內容,至今仍是嚴峻的未解難題。
ChatGPT對這些問題的回答之所以發人深省,更多在於其引發的問題而非給出的結論。當下我們擁有這項彰顯人類智慧榮光的非凡AI成就,卻尚未為其找到終極歸宿。當我們進化為技術智人時,定義物種使命已成為當務之急。提供真正答案的責任,始終在我們自己手中。
基辛格先生1973-77年擔任國務卿,1969-75年任白宮國家安全顧問。施密特先生2001-11年擔任谷歌CEO,2011-17年任谷歌及其繼任者Alphabet公司執行董事長。哈滕洛赫先生現任麻省理工學院施瓦茨曼計算學院院長。三人合著有《AI時代:我們的人類未來》,作者感謝埃莉諾·朗德的研究貢獻。
插圖:菲爾·福斯特刊登於2023年2月25日印刷版,標題為《ChatGPT預示一場智力革命》。