山姆·奧爾特曼能讓人工智能足夠聰明以回答這6個問題嗎?- 彭博社
Niall Ferguson
山姆·奧爾特曼,AI的高級祭司。
攝影師:帕特里克·T·法倫/法新社/蓋蒂圖片社
小説家尼爾·斯蒂芬森的預言力量令人驚歎。鑽石時代(1995年)設定在一個技術高度發達的世界,除了普遍存在的納米技術外,還有一種奇怪熟悉的東西叫做“P.I.” 這個縮寫在以下對話中得到解釋:
“我是一名工程師…碰巧在這個項目上做了一些工作。”
“做什麼樣的工作?”
“哦,主要是P.I.的事情,”哈克沃斯説。據説芬克爾-麥格勞仍然關注事物,會認出偽智能的縮寫,甚至可能欣賞哈克沃斯做出這種假設。
芬克爾-麥格勞稍微振作了一下。“你知道,我小時候他們稱之為A.I.人工智能。”
哈克沃斯允許自己微笑了一下。“嗯,可以説有點厚顏無恥,我想。”
然而,儘管他們在技術上非常先進,這兩個人卻是“新維多利亞人”。他們選擇擁抱19世紀的禮儀和時尚,部分是為了抵禦國家權力的崩潰和國家分裂成“部落”。
彭博觀點利率對世界來説是平的英國如何面臨洪水和乾旱的風險?倫敦政治經濟學院失去像殼牌這樣的巨頭是一個非常真實的威脅債券市場風險因借款需求激增而出現錯位對於那些對生成式人工智能最近的進展感到興奮的人來説,這裏有一個重要的警告。技術領域的驚人發展並沒有使歷史變得過時。它與最新的小工具並存,因為現在並不是歷史結束和未來開始的地方;它是過去和未來融合的地方。
自2022年11月30日OpenAI發佈ChatGPT以來,世界一直處於人工智能狂潮中。僅在五天內,ChatGPT就擁有了超過一百萬用户。現在已經有一億用户。該公司的最新成就是Sora,它可以根據您最奇特的提示生成出DreamWorks級別的動畫。所有這些都是由擁有數千億參數的深度學習系統實現的,這個術語在這裏有定義。(舉個例子,GPT-4的訓練模型需要超過一萬億個參數。)而用於訓練最先進的大型語言模型(LLMs)的計算量每六個月就會翻倍以上。
隨着時間的推移,模型規模的增長速度必須放緩並與摩爾定律(見下文)趨於一致,否則訓練新模型的成本將變得過高 —— 超出任何可能從商業化技術中獲利的關係。這意味着只有在計算能力不斷變得指數級便宜的情況下,人工智能才能不斷進步。
我對人工智能的技術、財務和經濟未來有六個問題:
1. Moore定律是否有終點?
1965年,英特爾公司的聯合創始人戈登·摩爾推測,密集集成電路(也稱為微處理器、半導體或芯片)中的元件數量(晶體管、電阻器、二極管或電容器)將在接下來的10年內每年翻一番。根據進一步觀察,他在1975年將這一翻番時間修正為每兩年一次。Moore定律經受住了近50年的創新考驗。
現在看來,Moore定律顯然是一個更深層次現象的體現,這個現象在摩爾之前就已存在,而且可能在他去世後的很多年裏繼續存在。自19世紀末期以來,計算的價格性能(計算機或芯片每美元成本能執行的操作數量)以及其他相關過程,如信息存儲和信息傳輸,一直呈指數增長,當時赫爾曼·霍勒里斯的原型計算機使用電氣機械繼電器和穿孔卡片。即使目前基於硅的技術存在潛在限制,我們應該假設在達到這些限制時很快會找到一種新技術。讓我們不要反對Moore定律。
2. 誰賺錢?
首先,必須是英偉達公司和台積電。他們在設計和製造關鍵的圖形處理器單元(GPU),LLM運行在這些單元上,佔據主導地位。
最近英偉達股價的驚人飆升提醒我們,技術最賺錢的用例並不總是其創始人所期望的用途。黃仁勳(Jen-Hsun “Jensen” Huang)是一個台灣神童,1972年,他九歲時被父母送到美國,1993年創建了英偉達,設計芯片以改善視頻遊戲中的圖形。但事實證明GPU還有另一個更好的用途。如今,英偉達在專門用於人工智能的芯片市場份額約為80%。它之所以價值2萬億美元,是因為它每個月賺取數十億美元。
誰還在賺錢?毫無疑問,OpenAI肯定在賺錢,因為它的GPT-4是(如果不是)最先進的LLM,而且它有微軟公司雄厚的資金支持來資助下一個版本的訓練,預計是GPT-5。今天,全世界都在關注OpenAI首席執行官Sam Altman説的每個字。但OpenAI面臨的競爭比Nvidia更為緊迫,不僅來自Alphabet公司的Google。開源AI系統包括LLaMA、Alpaca和Vicuna也並不落後。很容易想象有相當一部分用户願意接受不那麼出色但免費(或廣告支持)的AI聊天機器人,留下專業人士為高級服務付費。
另一個重要機會在於數據 — 是的,它們確實是新的石油。到目前為止,最先進的LLM已經在互聯網上可以輕鬆抓取的大部分高質量文本上進行了訓練。為了推動持續的能力提升,下一代模型將需要一種日益稀缺的商品:關於相關主題(例如人類健康)的大型乾淨數據集。能夠提供這些數據的公司應該會賺錢。與石油一樣,有些數據集的提取成本比其他數據更高。隨着AI需求和數據價格的上升,鑽探不太容易獲取的數據將變得經濟上划算。
3. 我們正在見證人工智能泡沫嗎?
金融歷史上充滿了顛覆性技術引發股市泡沫的例子。當前的人工智能狂熱可能會是另一個嗎?
當然,最近有許多虛假公司在他們的推介文件中添加了“人工智能”,就像上世紀90年代那樣,有許多公司虛假地聲稱自己是“點子公司”。但是英偉達是一隻泡沫股票嗎?正如我的彭博觀點同事約翰·奧瑟斯最近所指出的,英偉達在銷售和利潤方面的表現比點子公司時代的思科系統公司更令人印象深刻,思科是互聯網運行的路由器製造商。
黃先生稱人工智能“可能是科技行業最偉大的發明”,“很可能是21世紀最重要的事情”。但我們以前聽過這樣的炒作。現實是(問問特斯拉公司),只要存在鉅額利潤的可能性,很快就會出現競爭。谷歌、微軟、亞馬遜和超威半導體公司都在設計他們自己的人工智能芯片。在帕特·蓋爾辛格的領導下,英特爾正在重新崛起,力爭在設計和晶圓代工業務中競爭。
泡沫破裂的方式部分原因是競爭不可避免地壓低利潤率,使峯值估值變得荒謬。但還有一個額外的動態。一方面,投資於人工智能的金額是巨大的。不滿足於微軟給予OpenAI的130億美元,阿爾特曼現在談到需要7萬億美元用於芯片製造和發電。儘管GPT-4和Sora令人印象深刻,但即使OpenAI的未來收入也無法證明這麼龐大的資本總額是合理的。事實:7萬億美元是拜登政府提議的2025財政年度的聯邦政府總預算。
本月早些時候,The Information 發表了一些關於美國企業對LLMs能為他們的業務做多少的重要懷疑。在二月的財報電話會議上,亞馬遜CEO Andy Jassy表示,AI帶來的近期收入“相對較小”。Salesforce Inc.的高管們表示,生成式AI在今年不會對收入增長產生“實質性貢獻”。這些都是炒作週期過去的第一個跡象。
一個關鍵的擔憂是,AI仍然比人類“幻覺”(即,編造東西)要多得多。市場採用的真正決定因素是AI能以人類或更好的可靠性做什麼。
4. 我們是否會有足夠的計算能力達到人工通用智能(AGI)?
AGI指的是一種假設的通用算法系統,可以在所有認知任務上與一般受過教育的人類相匹敵。
這顯然是Altman渴望構建的東西。但這是可以實現的嗎?這實際上是一個關於我們能多快增長計算能力以達到可能需要的規模來與人腦競爭的問題 —— 這可能意味着一個擁有一百萬億參數訓練模型的計算模型,相比之下,GPT-4估計只有一萬億。這將需要大量的計算能力(或者像AI專家們所説的“計算”)。
1999年,未來學家雷·庫茲韋爾預測AGI將在2029年到來。最近,2022年1月1日,由聚合平台 Metaculus 編制的預測者的加權平均值預測,“弱AGI”將在2042年達到人類一般智能水平。三個月後,谷歌的PaLM AI掌握了“思維鏈推理”,這被視為一個關鍵障礙。
1170名預測者最近的Metaculus平均值是,“第一個弱智能系統將在2026年被設計、測試並公開宣佈”,四分位範圍在2025年至2030年之間。在“弱人工智能”發佈後,還需要額外28個月才能使人工智能變得超級智能,即在所有認知任務上比最優秀的人類更聰明。
指數增長的力量就在於此。如果模型大小每六個月翻一番,每年增四倍,每18個月增八倍,那麼即使對人工智能所需計算能力的估計低了10倍,也只會延遲預期到達時間19個月。低估100倍將使其延遲三年。
人工智能是科幻小説的內容(想想阿瑟·克拉克的《2001太空漫遊》中的HAL 9000)。但這並不意味着它不能成為現實,就像《鑽石時代》中的納米技術和會説話的書一樣。
5. 人工智能會導致大規模失業嗎?
三個世紀以來,勞動力市場一直在適應新技術,長期趨勢是就業總量、小時生產率和最終工資的增加。新技術確實會摧毀某些職業:織布工、速記員、電話接線員、電梯操作員。但這些工作都在沒有長時間大規模失業的情況下消失了。新技術帶來了其他職業。
然而,關於自動化和國際貿易對勞動力市場的衝擊的最新證據表明,人工智能的負面影響將在地理和人口上集中,受衝擊最嚴重的地方的勞動力市場不會順利適應。一個很好的例子是2001年北京加入世界貿易組織後對美國製造業造成的“中國衝擊”,這一衝擊在工廠自動化的幾乎同時推進下被放大。
與經濟理論的預測相反,許多受影響的工人並沒有搬遷、轉行或接受薪酬較低的無技能工作。相反,他們傾向於離開勞動力市場。受影響的社區遭受了工資、總需求和公共衞生方面的負面溢出影響 — 想想“絕望之死”。目前尚不清楚擁有大學學位的“知識工作者”是否會更適應“人工智能衝擊”。
麥肯錫公司的研究估計,即使沒有生成式人工智能,到2030年,自動化也可能接管美國經濟中目前工作時間的21.5%的任務。有了人工智能,這一比例為29.5%。人們可能會想象每個人都在AI副駕駛的幫助下愉快地提高生產力。更有可能的是,從法律行業到娛樂業,白領就業將在各個領域縮減。
隨着通用人工智能的出現,甚至可以想象更加激進的結果,即在大多數角色中僱用人類可能不再有意義,甚至包括企業領導。
6. 人工智能採用會遇到抵制嗎?
你知道這個問題的答案:是的。
技術變革長期以來一直引起政治爭議和社會動盪,但組織起來的抵抗很少成功阻止採用。1675年倫敦和1773年萊斯特發生的暴力騷亂中,紡織工人摧毀了他們擔心會摧毀自己生計的機器。從1811年開始,盧德分子破壞和摧毀了動力織機。
我們這個時代也有盧德派。2022年12月,蘋果公司推出了一項服務,允許圖書出版商使用聽起來像人類的AI敍述者,威脅到錄製有聲讀物的配音演員。生成式AI有朝一日可能取代編劇和演員的前景成為了好萊塢編劇協會和SAG-AFTRA罷工的中心爭議。
對技術變革的抵抗通常是徒勞的。儘管盧德派組織得相當好,但他們被鎮壓了。如今,只有1.3%的美國金融服務業工人和2.3%的專業和商業服務工人加入了工會,低於10%的全國平均水平。由於缺乏組織,AI革命的失敗者在工作場所抵抗的機會將微乎其微。
然而,如果公眾和精英感到恐慌,對新技術的政治抵抗是有可能成功的。一個很好的例子是人類克隆和基因工程引起的強烈反對。1997年,英國成功克隆哺乳動物“多莉羊”,標誌着首次使用體細胞核移植技術克隆哺乳動物。美國於2003年通過了《人類克隆禁止法》,禁止使用聯邦資金進行生殖克隆和研究克隆。
這段歷史引發了這樣一個可能性,即隨着生成式人工智能變得更加類似人類,監管者和立法者可能會面臨壓力,限制其使用 — 例如,在創建深度偽造視頻或音頻內容模仿個人方面。
在尼爾·斯蒂芬森想象中的《鑽石時代》中,PI未能達到那種模仿水平,但這僅僅是因為,“儘管我們擁有所有的技術,偽智能算法,龐大的異常矩陣,預兆和內容監視器,以及其他一切,我們仍然無法接近生成一個聽起來像真正的、活生生的演員所能給我們的人類聲音。”
在我們的硅時代,人工智能輕鬆地克服了這一障礙。但是監管 — 或者更加直接的大眾強烈反對 — 能否減緩計算的指數增長,LLMs的崛起,以及AGI的命運接近?在未來的專欄中,我將轉向人工智能的新興政治。
弗格森還是Greenmantle諮詢公司、FourWinds Research、Hunting Tower風險投資合作伙伴以及電影製作公司Chimerica Media的創始人。
更多尼爾·弗格森在彭博觀點的文章:
- 全球人口崩潰 不再是科幻
- 如果你認為第三次世界大戰是不可想象的,請閲讀這篇文章
- 美國和歐洲 面臨地緣政治101的失敗
想要更多彭博觀點嗎? OPIN <GO> 。或者訂閲****我們的每日新聞簡報 。