從人工智能大模型的湧現到中國產業的湧現 | 袁嵐峯_風聞
风云之声-风云之声官方账号-1小时前
2023年12月24日,全國通用人工智能創新應用大賽總決賽在安徽省蕪湖市舉行。這是中國計算機學會和安徽省科技廳共同主辦的科創大賽,吸引了全國300多個項目團隊參賽,80支隊伍進入複賽,安徽省外團隊佔比超過80%,20支隊伍晉級總決賽。

最終的冠軍是合肥中聚源智能科技有限公司,他們研發了一套關於心理健康的軟硬件產品,通過普適化的感知,對人的心理健康進行全週期的實時監護。不久前的3月17日,我就和中聚源董事長孫曉教授以及若干位心理學界、人工智能界、產業界等領域的專家一起做了一場直播(https://weibo.com/3710258141/O5ruZ8QVl),引起了大家的廣泛興趣。
本屆大賽將給予獲獎項目團隊現金獎勵、融資支持、宣傳推廣以及中國計算機學會相關獎勵,在安徽落地的優秀獲獎項目團隊還將獲得最高達3000萬元的綜合支持,合肥、蕪湖、宿州都有項目簽約。


這些盛況反映出,人工智能大模型不僅是通過對話讓人們感到驚奇,而且已經開始有不少項目落地了。這一切的關鍵,是大模型出現了神奇的“湧現”現象。我的朋友、風雲學會會員陳經就是一位人工智能專家,他寫了一篇長文(人工智能大模型神奇的“湧現”到底是什麼?| 陳經)。下面,我就向大家來介紹一下。

一、人工智能再度爆火
2023年的人工智能,火得有些出人預料。本來人們以為,人工智能又該到寒冬了。
2016年初,AlphaGo下圍棋戰勝人類,引發了多年來最大一波人工智能熱潮,以至於各種懂的不懂的都到處談人工智能,好像不談你就out了。但是之後熱度就逐漸下降,正如許多業界人士揭示和預期的,深度學習有能力也有缺陷,不宜寄望太高。
例如自動駕駛成為研發大坑,許多公司投入巨大卻難於突破。人工智能創業公司估值下降,風投在找突破口。這一切看上去都很正常,符合技術發展規律,因為歷史上很多技術就這樣起起落落過很多次了,尤其是人工智能。
但2023年人工智能大模型、AIGC的橫空出世,打破了這個一般規律。例如周鴻禕11月30日分享了去硅谷的見聞,稱“投資者對於沒有AI概念、沒有AI功能、沒有AI成分的公司已不會考慮”,“美國在賭人工智能這件事,整個投資體系、創業體系、大公司體系、傳統公司體系都在全面擁抱AI。”

從產業和技術影響來看,2023年的人工智能熱潮力度,已經超過了2016年。這是為什麼呢?很多研究者相信,這是發生了幾十年未見的、科學原理級的重大突破,不能單憑經驗去評估。
這個大突破,就是人工智能大模型的能力“湧現”(emergence)。下面我們來解釋,什麼是“湧現”,它的意義有多大。
二、深度學習是一次科學突破“湧現”
科學突破中,最為人熟知的領域是物理。從文藝復興時期的伽利略實驗、牛頓三定律,到二十世紀上半葉的相對論、量子力學,新的物理現象、物理定律不斷被發現,有的還帶來產業革命。
從二十世紀下半葉開始,重大的物理發現明顯減少。有人認為,人類社會科技停滯了,在有些方面甚至還倒退,如登月。但是,如果從湧現的角度去分析,就會有不同的感受。
物理學新現象少了,人類科技也不會停滯。在生物、IT等領域,不斷有令人興奮的新發現。科學規律與現象不應該有等級高低的分別,只要能帶來認識世界、改造世界的新能力,都是原理級突破。
人工智能大模型表現出來的能力湧現,可以類比於人類發現了電力,出現了讓人激動的全新現象。業界人士正以幾十年沒見過的科學激情,探索新世界。

在上世紀五六十年代,感知機等簡單結構、人工編寫算法程序下棋,已經讓學者們意識到,人工智能是一個新的科學領域了。但由於神經網絡結構過於簡單,人工代碼編寫AI程序困難,算法複雜度指數上升,人工智能遭遇了低谷。日本八十年代選擇人工智能作為“第五代計算機”的突破方向,最後徹底失敗,技術資料變得一錢不值。

另一個著名的失敗,是“異或問題”。明斯基等人指出,單層的感知機通過調整神經網絡係數,可以對兩個輸入值的與、或、非成功輸出;但不管如何調整係數,也無法輸出異或的結果。為什麼呢?看這個圖就明白了。感知機是要劃一條線把0和1分開,但現在0和1在四個角交叉放置,所以不可能有一條直線把0和1各放一邊。推廣來説,如果兩種模式通過一個超平面“線性可分”,感知機就能訓練收斂,但實際應用中絕大部分模式識別問題是非線性的。


線性可分的問題能用神經網絡訓練成功,其實是個新現象。上萬億個係數的大模型,其基本特性在最初的感知機中都可以找到,調整係數、加減乘除簡單運算、數值結果解釋輸出。但這只是馬後炮,由於當時的認識侷限性,學界普遍把神經網絡看成意思不大的玩具,對應1974 - 1980年的第一次人工智能寒冬。

八十年代以來,楊立昆、辛頓、本吉奧等人引入多層神經網絡和反向傳播算法(Back Propagation,簡稱BP),成功實現了手寫數字識別等成果,有了郵政編碼識別、支票識別等實際應用。由於計算機性能上升,人工代碼精心編寫的下棋程序大有進步,IBM的深藍戰勝了國際象棋世界冠軍卡斯帕羅夫。

這段時間的人工智能可以算是小有成就,但在當時的IT大潮中,顯得不太突出。這對應1987 - 2016年的第二次人工智能寒冬。從投資角度看,人們熱衷於軟件開發、通信、互聯網、手機APP等,人工智能不算熱門。

深藍的開發代價很大,戰勝卡斯帕羅夫之後封存,後續發展和技術影響不大。人們認識到,靠人工代碼編寫人工智能算法,會被博弈問題的指數複雜度卡住,專家系統邏輯能力有限,難以應對複雜問題。這種“符號主義”的發展路徑,是當時人工智能的主流,有些頂尖成果代表業界,但前進方向迷茫。
後來大放光彩的深度學習、大模型,在這個階段已經有了基本結構和訓練框架。多層神經網絡前後連接,對應人工智能的“連接主義”。前向傳導計算出最終節點的結果,與樣本對比產生“誤差”,一層層反向傳播回去,用“梯度下降”等方法反覆修改係數,讓誤差降低,優化整體的“損失函數”。這些並不複雜的基本技術,通過反覆訓練將損失函數降到極低,就能產生驚人的模式識別效果,將手寫數字等簡單模式識別出來。但是這個階段的多層神經網絡,能力還是有限,稍複雜的圖像模式識別問題就表現不佳,限制了技術應用。
2016年人工智能熱潮忽然興起,是因為AlphaGo在符號主義無能為力的圍棋問題上戰勝了人類頂尖棋手,大大出乎預料。其實對業界人士來説,技術上算是水到渠成,是各種技術因素的組合成果,有傳統的MCTS(蒙特卡洛樹搜索)博弈搜索算法,也有深度神經網絡、強化學習、對抗生成網絡(GAN)等新技術。結果很好,但技術並不算太有突破性,不少個人開發者都開發出了實力強大的圍棋AI。

對業界來説,2012年的圖像識別神經網絡AlexNet的基礎意義更大。AlexNet三人開發團隊包括導師辛頓,還有兩個學生,其中一人就是ChatGPT的技術核心Ilya Sutskever,他也參加過AlphaGo的開發。AlexNet依靠深層卷積神經網絡,在ImageNet圖像識別大賽中,錯誤率一舉降到15%,相比其它技術的30%有了巨大突破。這是真正讓業界興奮的進展:深度學習展示了它的神奇。



深度學習讓業界從迷茫中找到了方向。計算機硬件速度不斷提升,還有GPU並行加速,訓練數據量也在迅猛增加。突破了瓶頸之後,深層神經網絡的能力就一下“湧現”了。短期內,深度學習成果就席捲了幾乎所有科學領域,人們的經驗被構建、被訓練,來到各種神經網絡結構中。機器翻譯質量突飛猛進,人臉識別能力驚人,繪畫以假亂真。這些進展其實在AlphaGo出現之前就發生了,社會知道“深度學習很厲害”,但沒想太遠。
這是一次真正科學意義上的“湧現”。計算機之前是作為工具幫助各科學領域的研究,主導的還是領域專業知識。但是忽然一下,各學科發現,連研究範式都變了。
這次深度學習的“湧現”,有兩層意思。一層是説,隨着神經網絡規模、訓練機器速度、樣本數量不斷增加,到了一定規模以後,忽然從量變到質變,神經網絡能力躍升“湧現”,把圖像識別效果大幅提升。另一層是説,深度學習在圖像識別領域表現極好,這個能力還迅速推廣到了其它計算機領域,甚至改變了其它學科,能力的應用範圍也湧現了。

有意思的是,人們對AlphaGo關注極大,是因為終極意味的“智能”。許多人想象中,一個人形機器思考着擊敗了人類棋手,人類的最後堡壘“智慧”被證明不如機器,工作將被機器取代,引發了很多哲學與社會思考。但AlphaGo代表的人工智能技術,與智能本質並無太大關係,是“人工”造出來的假象,它只是巧妙地模擬了一個複雜的計算任務。社會慢慢習慣了之後,人工智能的能力邊界清楚了,2018年後關於機器智能的討論迅速降温,似乎又要回到寒冬了,投資熱度下降。
其實對業界來説,2016年人工智能爆火之後並沒有寒冬。開發者積極在各種領域應用深度學習,研究者探索新的神經網絡架構、訓練方法,不斷有成果出來,領域非常活躍。只是外界認為“沒那麼神奇”,感覺平淡了。
按照明斯基式的數學理解,這次深度學習的突破,就是用極多的係數(幾百萬至上億個),構建了規模很大的數學公式,去擬合逼近了圍棋、圖像識別等複雜問題的解空間。從能力最簡單的“直線分割平面”發展成,用規模極大形狀複雜的超空間曲面去分割空間。而構建方法,是統計擬合,通過海量樣本對比統計誤差,反向傳播修改係數減小誤差,多次學習後誤差降到極小,數值模擬成功。樣本可以是人工標註的,也可以是自動生成的,硬件基礎是GPU加速並行計算(幾千個計算核心)。
陳經與人文學者交流時,把統計模擬的數學意義解釋清楚,對人工智能就“祛魅”了,神奇的“智能”感覺消失了。而且這個統計模擬顯然會有缺陷,因為它沒有堅實的邏輯基礎。它的成功是統計性的,什麼時候出現bug難以預料。
例如AlphaGo,你認為它徹底戰勝了人類嗎?其實並沒有!2023年2月日本芝野龍之介二段執黑對圍棋AI絕藝,人類就戰勝了AI。黑棋誘導白棋走出一塊轉圈連上的棋,內部包圍了黑棋一塊活棋。白棋以為自己是活棋,但人類棋手很容易就看出它其實造不出兩個眼,是死棋!這就是因為AI在訓練中極少出現這樣的棋形,所以它對死活產生了錯覺,最後大塊走死認輸。業界認為,所有圍棋AI都會有這個bug。


這種例子在各領域都有。以深度神經網絡為基礎的模式識別,會有難以消除的缺陷,應用於自動駕駛等安全領域會有很大的麻煩。某種程度上,這也是“第三次人工智能寒冬”説法的技術根源,達不到預期,一些研究者感到迷茫。
三、第二次人工智能“湧現”:大模型
正當業界普遍認為人工智能短期不會再有更大突破時,更大突破卻來了!
人工智能的突破,往往是從一些看似簡單的任務開始。這次的大模型,就是從一個“簡單”的任務開始:預測下一個詞説啥。“語言大模型”的基本操作,就是一個接一個地往外吐詞,形式上就是這麼簡單。過去的聊天機器人、作詩機,人們也見識過,並沒有太特殊,沒想到在這個領域發生了巨大突破,可能會產生真正的“智能”。
GPT是Generative Pre-Trained Transformer,其中Transformer就是一種神經網絡結構,2017年發明後,在機器翻譯這個任務中證明了能力。它並不複雜,只是數量特別多,用來存放幾千億個係數。Generative是生成式,GPT會生成對話文字等內容,近期爆火的圖片、視頻軟件也都是生成式應用。Pre-Trained是“預訓練”,一個理解就是把整個互聯網那麼大規模的語料文本,交給Transformer去學習,後來又增加了語音、視頻材料,多模態。語料甚至不用人工標註(選擇去除有害內容是另一回事),預訓練就是讓GPT預測文本語料中的下一個詞,不準就反向傳播調整係數。
這個任務聽上去很簡單,但是想想看,GPT會從中學到什麼?這就不簡單了。要注意,研究者將機器的存儲與訓練算力狠狠擴張,足以處理整個互聯網這麼多的語料。

一個傳統觀察是,學習語料,能讓機器學到“語法”和“語義”。在NLP(自然語言理解)領域的機器翻譯任務,人們就深有體會,研究者用人工代碼去實現語法、對單詞建立對應關聯,是死路一條,翻得很醜陋。而機器對着訓練文本自動學習,就能把一門語言的語法、單詞間的語義關聯建立起來,翻譯得像模像樣。它知道一些單詞經常一起出現,出現時有什麼條件,這些關係都記在神經網絡係數中。Transformer數據結構就是能對一句話中的單詞,方便地建立關聯。
即使機器翻譯得很好了,人們也知道,機器並不理解這些話是什麼意思。按數學理解,機器是把一段話用encoder編碼了,然後再用decoder解碼成另一種語言,它是一種編碼、解碼的算法。實際上,在翻譯機器看來,它面對的只有一些“token”(記號),這些token互相有關聯,實際是什麼它不用知道。就象有確定答案的圍棋一樣(完全信息博弈),翻譯的輸出也是相對確定的,是較為“容易”的任務(人類總是這樣,解決了就認為容易了)。
但是GPT預訓練的任務不是翻譯,而是預測下一個token,這比翻譯難得多。想讓接下來的文本序列合理,它需要了解“事實”,甚至學會“推理”!這時,在人工智能領域,就“湧現”了真正讓人震驚的科學新現象。
以科大訊飛星火大模型為例,我們來問它:從西安開車30分鐘為什麼沒到北京?它的回答是:從西安開車30分鐘不可能到達北京,因為兩地之間的距離非常遠。

這個回答就很有水平。理解“開車沒到”,就會引入“時間”與“距離”,然後再根據距離,去關聯西安與北京,還要引入“速度”,最後組合出答案。這個過程直覺上就不簡單,形式上真的像是在推理。
有很多這樣的案例,讓人們相信機器真的有了強大的推理能力。OpenAI的人説,有時不知道GPT4是怎麼推出來的,裏面的機制真的很神奇。
當然GPT也有很多邏輯缺陷,人們誘導出機器離譜的回答不難。但是從科學發現的角度看,只要新現象可以重複,即使應用需要條件、有缺陷,也是很不錯的突破。以前,研究者認為聊天機器人只是形式上的語言模仿者,從未發現機器有如此強大的推理能力。看多了GPT的對話就能感覺到,機器的數據結構中真的藴含了推理能力,不可能靠模仿出來。
對新現象興奮,而非更關注離譜的缺陷,正是研究者區別於普通人的特質。物理學家對可能的“新物理”極為關注,有點蛛絲馬跡都撲上去一堆分析,往往以失望告終。人工智能研究者當然也會關注“機器推理能力是如何產生的”,所以大公司都撲上去了。研究大模型需要的算力、存儲、資金等硬條件很高,比深度學習高得多,否則研究者會更多。但中美兩國的大模型數量已經非常多了,這種“大發現在前方”的集體興奮是從未有過的。

短短10年內,人工智能領域就出現了兩次科學原理級別的“湧現”,深度學習一次,大語言模型一次。也許外界不清楚意義,但業內人士真的產生了前所未有的熱情。
大模型是如何學會推理的?這是可以描述的。一個類似的例子,是圍棋AI學會“徵子”。AI的訓練是不斷進步的,一套“權重”對應一個版本。像圍棋這種有勝負的遊戲,可以讓AI從什麼也不會開始,讓各版本“自對弈”對戰,並根據對戰結果改進權重,表現好的權重成為勝利者繼續發展。這個訓練可以是分佈式的,LeelaZero就是由眾多愛好者貢獻機器自對弈更新權重的。
在訓練中,愛好者們明顯發現,常規的圍棋戰術,如打吃、提子、逃跑,AI各版本能很快學會,但是徵子很難學會。因為它涉及相隔很遠的棋子之間的斜向關係,能不能扭來扭去吃掉,對AI很難。但時間長了,就會有某個幸運的權重版本,學會了判斷徵子,而且會利用這個能力,對其它不會徵子的版本大殺四方。學會徵子,圍棋AI的神經網絡結構要足夠大,如20層可以,10層不夠,要訓練很多盤自對弈。

GPT的預訓練實現推理能力,也是這樣的。首先網絡結構的規模要大,OpenAI從GPT2到GPT3、GPT4,不斷擴大規模,幾千億個係數,規模夠了。然後訓練語料要多,訓練時間要長。剩下的,就是看GPT的能力怎麼逐漸冒出來,和圍棋AI的自對弈訓練一樣,簡單的能力先學會,複雜的後學會。
讓人震驚的科學發現是:GPT3在預訓練中學會了很複雜的推理!這就如同AlexNet對於深度學習的意義,讓業界認識到了大語言模型的極大潛力。
可以這樣理解,有一些GPT預測文本的任務,如果不會推理,肯定是做不好的。做不好,“損失”數值會比較大。GPT反覆訓練,不斷用各種辦法修改權重,試圖降低“損失”,終於在某個時刻,把“損失”降下去了。而這就等價於,GPT具備了推理能力,輸出像模像樣了。
其實人類學習推理也是這樣,你會了,考試就能過,不然就過不了,蒙不過去。至於人類怎麼學會的,每個人有自己的方法,考試和應用才是評判標準。哲學上,有人説機器不是在推理,是在計算模仿,不是智能,但這説不清。公平的評判是,機器完成了需要推理的任務,就是有了推理能力,並且掌握了很多推理需要的“事實”。
OpenAI沒有發論文公佈GPT3、GPT4的技術細節,有些訓練技術人們只能猜測。但業界總會有交流,員工也會被挖走,技術不可能一直是獨家的,因此一些認知逐漸成為業界共識。GPT的成功在於搞出了“湧現”,這就是業界的共識。
這次GPT的湧現,還特別有哲學意味,比深度學習那次的湧現,有更多可以説的。
1. 類似於深度學習,網絡規模、語料、機器速度、訓練時間不斷增長,最終新的能力就湧現了,量變引發質變。這是常規的預期,人們之前只是不確定基於Transformer的GPT能否成功,不想極大投入。這一關已經過了,無數公司願意砸大錢了。
2. 不同於AlexNet的單一任務,GPT有很多任務的文本輸出表現要提升。它可能對某些場景表現得不錯,而對另一些考驗複雜推理甚至數學能力的場景,就表現糟糕。所以GPT的湧現並不是一次性的,而是各種類型的任務能力,從易到難,逐漸提升。也就是説,GPT的湧現本身就很有多樣性,有很多值得探索的細節。
3. GPT的湧現,還沒有到終點。當人們發現“量變引發質變”的好事發生時,已經很激動了。也許只是幾個小任務的成功,就能讓人們確信這一點。但繼續訓練,就發現好事越來越多,人類文本藴含的任務種類是無窮無盡的,難度會越來越大,考驗非常多種能力。GPT框架到底有多強大,人們還不清楚,這種未知感更讓人興奮。就像在山洞裏尋寶,知道有寶貝,但不知道是什麼類型的寶貝,這會招來更多尋寶者。而深度學習的湧現就容易判斷,它再訓練也不會更好了,因為整個過程都熟悉了。
4. GPT的規模,還應該繼續擴大,從千億參數擴展到萬億參數,乃至更高。一般的深度學習任務,網絡規模夠了就行,再擴大也意義不大,反而可能“過擬合”。但是GPT要記憶人類社會的“事實”信息,幾千億個係數規模顯然不夠。雖然它可以進行“信息壓縮”,但這會損失信息。另一個直覺是,網絡規模擴大後,GPT的“潛能”也會增加,在複雜的啓發式知識海洋中游蕩,發現深層的相關性。
瞭解了以上的GPT湧現特性就能明白,研究者的興奮是超過深度學習那一波的。一些激進的學者認為,GPT架構就藴含了真正的智能,真的開始思考人類被機器毀滅的事。一個有些奇怪的事情是,OpenAI花了相當多的精力去進行AI安全的研究,甚至導致公司內部“政變”式動盪。GPT的湧現,確實很有人類的智慧特性,多樣、複雜、難以預測、潛力無限。因此,這肯定是目前最接近“通用人工智能”(AGI)的一次。
外界對於GPT的湧現不夠了解,容易低估它的科學發現意義。很多人只是關注聊天表現,對AI表現的強大推理能力讚歎,或者對AI一本正經地胡説八道感到震驚。外行容易認為,對GPT的研究主要就是讓它聊得更好,更沒有破綻。
實際上,對於GPT的研究核心,應該是探索更多的“湧現”細節。微軟、谷歌等大公司在試更大的模型,直接目的並非是想讓AI聊得更好,而是探索令人着迷的“湧現”。也許通過不斷催生GPT的湧現,最終通向了AGI,也許如楊立昆預測的,這條路不通。但無論如何,現在不是關注缺陷、完善產品的時候。也許等GPT的能力邊界探索清楚了,開發者就可以回過頭來,用能力去開發,想辦法避免缺陷。
值得注意的是,2022年初GPT3已經出現了很成功的“湧現”,甚至GPT4在2022年8月就已經預訓練出來了,但只有少數專業人士驚歎,沒有爆火。直到ChatGPT通過RLHF(人工反饋的強化學習),將輸出語言調試得讓人類感覺舒服,才在2022年底引爆了全球關注。


這説明人類很容易受“表象”的影響,即使是專業研究者也未能免俗。深度學習是真的“湧現”突破,但是在新聞界遠不如AlphaGo與人類對戰轟動。GPT3、GPT4的預訓練是讓“湧現”不斷出現的研發框架,潛力無限,但是RLHF的效果更引起外界的關注。
對於國產大模型也是如此。上百家在開發,即使一些國產大模型規模不是很大,對模型特性的探索也是有益的,能夠發現GPT湧現的特性,也許能加快湧現的發生。不用太在意國產大模型的缺陷,這不可避免,原因可能有多種,語料準備不夠、訓練時間不夠、算法細節問題等等。但重要的是,搭起了大模型研發框架,探索湧現的細節,總會有收穫。
對於大模型的應用生態,不應該把大模型只當成聊天機器人,這限制了想象力。GPT湧現出的推理、數學、信息壓縮、多模態、內容生成等多種能力,打開了全新的研發架構。就像深度學習,它既是探索框架,也是應用架構。
美國大公司正試圖用GPT改造整個軟件體系。大公司會像軍備競賽一樣,繼續擴大GPT的規模。更為普遍的行為,是開發工具鏈,將GPT應用做起來,讓開發者加入進來,在各行各業應用GPT湧現出的能力。後者才是中國更應該學習、也更有優勢的領域。
對於國產大模型的基礎能力,我們並不擔心。例如科大訊飛的星火大模型3.0,評測認為接近ChatGPT的水平,準備在2024年5月推出接近GPT4的星火4.0。大模型評測是一個重要研究領域,標準還不是很統一,但顯然國產大模型能力在快速進步,與美國的差距最多也就兩年。

對於某個問題,如果國產大模型的回答不如ChatGPT,輿論就會很關注,但其實應該更關注湧現。如果中國公司的研發架構,能讓各類湧現不斷髮生,那麼本質上中美就在同一個賽道競爭。也許美國大模型已經實現了4級湧現,中國還只有3級,美國公司還消除了更多的bug,但隨着中國公司對湧現的研究越來越深入,這些差距都會補上。
真正影響大的,是大模型的應用生態。沒有生態,公司的大模型研發會難以為繼,就連OpenAI都覺得大模型開發運維太花錢了。如果中國公司做起大模型應用生態了,就能迭代開發,針對性地改進行業應用中的缺陷,這是中國公司的拿手好戲。有些應用能成功,即使基礎技術不那麼強,但抓住了行業痛點,應用推廣了,生態做起來了,反過來又帶動基礎技術提升。
安徽的通用人工智能發展規劃(https://kjt.ah.gov.cn/kjzx/tzgg/121837851.html)對此就表現出了深入的理解,“力爭到2025年,充裕智能算力建成、高質量數據應開盡開、通用大模型和行業大模型全國領先、場景應用走在國內前列、大批通用人工智能企業在皖集聚、一流產業生態形成,推動我省率先進入通用人工智能時代”。

中國的產業發展歷史,本身就是一個不斷“湧現”的過程。2000年以來,中國的眾多產業奇蹟般地不斷崛起。陳經從2013年起就一直在鼓吹合肥市,寫過很多文章。合肥確實是全球城市中增長最快的,2022年GDP相比2000年增長了37倍,湧現出了多個千億產業集羣,如新型顯示、集成電路、新能源汽車。


即使已經鼓吹多年,仍然會不斷被安徽與合肥的發展震驚。如安徽2023年汽車產量249.1萬輛,成為全國第二,僅次於廣東。這次通用人工智能大賽總決賽在蕪湖舉辦,當地的奇瑞2023年生產了188萬輛汽車,出口爆發增長,2024年要衝擊400萬輛。合肥2022年新能源汽車產量25.5萬輛,同比增133%,2023年74.6萬輛,再增140%。合肥把比亞迪、大眾、蔚來都吸引來了,目標是2025年新能源汽車產量200萬輛,2027年340萬輛!

用GPT來類比,中國的發展機制在改革之後,換成了Transformer(這個詞本身就有變革的意思),就發生了不可思議的產業“湧現”。
瞭解了GPT的“湧現”,再看美國政府打壓中國人工智能,連4090顯卡都不讓賣了,就能明白,美國政府這是在賭,認為通用人工智能會有大突破。美國商務部長雷蒙多赤裸裸地説,要拖慢中國人工智能的發展。
但中國也是有備而來,華為、科大訊飛等成為人工智能行業與美國鬥爭的排頭兵。科大訊飛因為被美國放入實體名單,花了小半年的努力去適配國產GPU,這在全國是領先的。華為雲建設了三大AI算力中心,其中一個就在蕪湖。
產業發展是有歷史記憶的,已經實現產業“湧現”的地區,在新興產業政策的規劃、實施上就有優勢。通用人工智能的發展,我們同樣祝福安徽,看好安徽。