《心智對話》| AI與國運:AI發展到了向西還是向東的節點
陆远声
今年1月末,美國《華盛頓郵報》刊發了谷歌前首席執行官、美國人工智能國家安全委員會主席埃裏克·施密特的署名文章,題為“中國開源人工智能會終結美國在該領域的霸主地位嗎?”
當時,DeepSeek剛剛推出的R1大模型,憑藉其低成本和高效能迅速引發全球行業巨震。施密特寫道,“這是一個特殊的時刻,一家中國公司成為事實上的開源領導者”。
遊戲科學創始人馮驥更是有句知名的論斷:橫空出世的DeepSeek,可能是國運級別的科技成果。
在技術躍遷的時代,中國的AI發展究竟要走什麼道路?如何應對AI領域的“奧本海默時刻”?全球又該怎樣共同合作,更好地治理AI相關問題?
圍繞這些問題,3月27日,觀察者網與中國互聯網治理論壇(中國IGF)共同舉辦了最新一期的科創類談話節目《心智對話》,主題為“AI與國運:技術躍遷、產業革新背景下的全球治理”。
原中國社科院信息化研究中心主任、中國管理科學學會學術委員會副主任姜奇平,中國科學院自動化研究所研究員、人工智能安全與超級對齊北京市重點實驗室主任、聯合國人工智能顧問機構專家曾毅,中國互聯網絡信息中心副主任、聯合國互聯網治理論壇多利益相關方諮詢委員會、中國IGF常務副主任張曉等參與對話。

(左起)張曉、姜奇平、曾毅 觀察者網
中國AI到底往哪兒走?要警惕日本的例子
從東西方文明取向差異方面入手,姜奇平表示,中國文化追求天人合一,恰恰沒有美國的計算主義所固有的缺陷。
他認為,現在中美AI的發展可能到了一個轉折點上,即使不説分道揚鑣,下一步也會各有側重。中國的AI和美國、包括美國華人搞的AI,都有可能顯出差異。他舉例説,美國和日本汽車產業競爭的時候,美國車廢油,日本車省油,“這就是根深蒂固的東西”。“因為美國人不覺得石油是個障礙,可日本人會對石油的運輸不放心。”

原中國社科院信息化研究中心主任、中國管理科學學會學術委員會副主任姜奇平 觀察者網
張曉則回顧説,東西方在不同的文明背景下,數字化發展路徑也有所不同,中國是陸地文明,關注和睦相處,而海洋文明更傾向於零和博弈。
另一方面,歐洲比較重視個人的權益隱私,而網紅經濟,是一種熟人經濟、信任經濟。
曾毅提醒説,中國的AI發展可能仍然存在“重大缺陷”,“我們本可以擁有截然不同於美國的AI願景,但是我們目前的技術發展完全是沿着美歐的思路在走”。
他以日本AI發展的願景和實踐為例説,全世界只有日本的人工智能學會在倫理原則的最後一條寫明:“AI必須通過和學會成員相同的方式遵守上述規則,以便成為社會的成員或準成員。”
然而,儘管提到了AI成為“社會準成員或者人類夥伴”的可能性,日本在發展AI技術的過程中,並沒有為了這一目標而採取任何實際的行動,仍然將AI當作構造工具的方式。
曾毅表示,AI不會僅僅停留在工具階段,未來會成一種living becoming,即有生命的演變體,並且演化速度會非常快。可是,“一個作為工具的AI不可能自主演化成一個社會的準成員”。
“我不認為Deepseek的方向是顛覆性的,Deepseek比OpenAI多講了實話,但是兩者的技術方向並沒有本質上的不同。”曾毅表示,儘管Deepseek已經告訴外界,發展AI“不需要那麼高算力”,“也不需要那麼多數據”,但正如許多科學家指出的那樣,這種生成式人工智能大數據的方式、切分(tokenize)的編碼方式依然不是“面向未來的人工智能”。
按照曾毅的建議,“如果中國真的想(在AI領域)迎來自身的顛覆性時刻,要做一次週期長達5到10年的重新佈局,以重塑AI發展的未來。”
姜奇平同樣強調,目前,AI發展已經到了向西還是向東的節點:向西,將走進“動物世界”,向東,將擁抱“科技向善”。
中國AI發展如何應對“奧本海默時刻”?
人工智能的高速發展已經是不可逆的文明趨勢,機遇與風險並存,自由與束縛交織。
導演諾蘭在談到他的傳記電影《奧本海默》時便説:“擔憂人工智能的人都對《奧本海默》感興趣。很多頂級的人工智能研究者,將當下視為他們的‘奧本海默時刻’,他們將奧本海默看作一個警示故事。”
張曉也説:“人工智能出現的時候,我們就覺得它是‘奧本海默時刻’。”AI發展的風險到底在哪裏?沒有人可以斷言。所以張曉強調,要“邊發展邊治理”,“同時治理要給發展留下足夠的空間”。

中國互聯網絡信息中心副主任、聯合國互聯網治理論壇(IGF)多利益相關方諮詢委員會、中國IGF常務副主任張曉 觀察者網
AI的治理,是否可以從互聯網治理中借鑑經驗?張曉認為,最重要的就是多利益相關方模式。“之前我們説管理的時候,更多地是垂直的、自上而下的,而我們説治理的時候它更多地是一個平面。”
“新技術是全球化的,不僅涉及政府,還有平台企業、用户個體。在互聯網剛剛發展的時候,因為技術門檻很高,先由科學家、技術社羣做一些標準,然後商業介入,最後隨着互聯網承載了非常多應用以後,看到政府就強勢介入,這個非常重要,因為它承擔着公共角色。”
曾毅補充説,需要區分好“發展”和“野蠻生長”的關係,AI的技術發展是有方向的,而“野蠻的生長是沒有方向的”。
“比如説,我要訓練一個更強大的AI模型,需要利用世界上的所有數據,包括所有人的個人數據,這意味着犧牲掉所有用户的隱私權。”曾毅説,這就不是發展,而是“野蠻的生長”。
他強調,對AI的治理從來不會影響其發展進程,而是以護航者的角色避免AI“野蠻生長”。同樣,注重AI安全也不會影響其發展。
在他看來,所謂“平衡安全和發展”的説法存在問題。“平衡是相互掣肘的意思,好似在説,注重安全,發展必然受阻。”
但是根據曾毅團隊近期的實驗,人工智能大模型完全可以在幾乎不影響問題解決正確率的前提下,將安全屬性提升20%-30%。
超級智能看待人類會和人類看待螞蟻一樣嗎?
2023年3月,美國生命未來研究所發表公開信《暫停巨型人工智能實驗》,提出所有AI實驗室立即暫停訓練比GPT-4更強大的模型至少6個月,以便為制定安全協議和治理框架爭取時間。曾毅也大體認同這份倡議的內容。
“當時很多人問我,我國都還沒有什麼像樣的生產式人工智能,你為什麼要簽字?是不想讓中國發展嗎?”

中國科學院自動化研究所研究員、人工智能安全與超級對齊北京市重點實驗室主任、聯合國人工智能顧問機構專家曾毅 觀察者網
曾毅解釋説:第一,這封公開信限制的是比GPT-4更強大的模型,但中國當時連GPT-3級別的模型都沒有,“根本不是去限制中國發展的”。第二,為公開信簽字屬於自願承諾,他並不代表中國,而是作為科研工作者認識到了AI發展的風險。
西塞羅(CICERO)是美國Meta公司開發的一款AI系統,曾在2022年8月至10月的線上《外交》遊戲比賽中取得過極佳的成績,被稱作“第一款在外交領域以人類水平進行遊戲的人工智能”。
曾幾何時,外交被認為是AI絕對無法接管的工作。曾毅也説,西塞羅在外交博弈上的進展令他感受到危險。在應對AI災難性風險能力還很薄弱的當時,“不應當用AI來做這些事”。
事實上,自AI進入人類視野以來,人類對與AI關係的憂慮就如同一道難以驅散的陰影,始終籠罩在文明的上空。
2024年一項針對在頂級AI領域發表過論文的作者的調查顯示,37.8%-51.4%的受訪者認為,高級AI導致人類滅絕等嚴重後果的可能性至少為10%。

2001年上映的科幻電影《人工智能》海報,這部由庫布里克籌備多年、又經斯皮爾伯格接手執導的電影融合了科幻、倫理與情感。
AI發展的終極目標是超級智能,這意味着這種非人類的智能體將在幾乎所有認知領域全面超越人類的最高水平。
“有些專家説,未來AI方方面面都會超越人類,但是仍能被人類所管控,”曾毅對此不以為然,“如果AI的智慧水平遠遠超過人類,可以同時部署幾萬台具身智能機器人,你怎麼還能控制它呢?並不因為我是你的發明者,你就必然尊重我、聽我的。”
如果人類希望超級智能依舊遵守人類的價值觀,那麼首先,需要明確人類的價值觀究竟是怎樣的。曾毅舉例説,人類有關注過螞蟻嗎?無非是“忽略”並且“一腳踩過去”。一旦超級智能看待人類和人類看待螞蟻的態度是一樣的,如何保證人類與AI和諧共生?在曾毅眼中,這是AI發展的終極挑戰。
他提出,AI發展存在近期便可能爆發的風險,即AI以一種“人類沒有預期的方式去犯錯”。以目前的發展水平,AI並不能理解“欺騙”這一概念,僅僅將其作為解決問題的一種策略。例如,當人類嘗試調整AI的價值觀,AI就可能出現為了減小計算量、反饋已調整但實際上未作調整的情況。

今年3月,美國加州聖何賽,1X Technologies的吸塵機器人在Nvidia GTC大會上展出。 視覺中國
姜奇平則表示,不應過度渲染AI末日論的説法,這是“美國的誤導”,根源是所謂的武器決定論、機器決定論。
儘管認可對“末日論”的憂慮是真實存在的,但姜奇平表示,從歷史經驗來看這種憂慮經不起推敲。他以人類發明飛機、汽車、望遠鏡等為例,強調在新事物誕生節點上人類對發展的恐懼,往往事後被證明並不成立。
“中國的國運,不是建立在技術決定論基礎之上的,是人和物一起起作用,人起主導作用。”姜奇平説,汽車是人類腿的延長,但為什麼沒有毀滅人類,是因為人類“留了個心眼,留了一個駕駛艙”,也就是説,人和物共同決定世界,其中管方向盤的還是人。
姜奇平認為,目前AI在計算主義的錯誤方向上發展,只強調物,不強調人。即便中美在AI領域持續競爭,雙方應該也有堅持AI由人類主導的共識。
他指出,應該鼓勵“世界各國來合作,來共同制定遊戲規則,避免人類共同的毀滅”。中方可以提出“計算主義路線有問題,只有事實判斷功能,沒有價值判斷功能,要求增加價值判斷功能”。“如果你執意不同意,那國運時刻就到來了,也就是正確將戰勝錯誤。”
AI全球治理如何可能?
儘管世界各國有合作治理AI的可能,但曾毅感嘆:AI應用的風險在各個國家一遍又一遍重複出現。他舉了中美AI進校園的實踐作為例子。
2019年,生物識別技術在中國校園逐步開始應用並引發爭議,部分高校的教室考勤可以通過人臉識別系統來完成,學生髮呆、玩手機都能被感知到。當時中國教育部科學技術司回應説:“包含學生的個人信息都要非常謹慎,能不採集就不採。能少採集就少採集,尤其涉及到個人生物信息的。”
然而,就在同年晚些時候,美國卡內基梅隆大學推出應用於課堂的學生表情姿勢等識別系統,也招致不少的反對聲音,很快下線。

近年來,人臉識別技術被廣泛運用於各類生產生活場景,持續引發爭議。 視覺中國
曾毅表示,目前AI全球治理的一大關鍵問題,便是引領性的國家如何更有效地去分享風險,“不是統一全球的治理方式,而是加強互操作性。”
他強調,就AI安全而言,“不是一個國家安全了,全球就安全了。”AI技術具有擴散性,因此風險是無國界的。美國正是這方面的反面典型,“只保證自身安全,不管其他國家”。
張曉也強調了互操作性的重要意義。不同國家有不同的數字化發展道路,對合規性的定義也不同。因此對於企業數據出海而言,政策之間的互操作性便至關重要。
數字產業不同於傳統產業,涉及多主體、多場景,超越邊界限制,動態變化複雜,極具全球性特徵。張曉表示,過去的全球治理和國內治理完全可以分開,但當前國際上一些規則的制定,反而會倒逼國內產業政策的變化。
問題在於,當下對數據的全球治理是碎片化的,缺乏統一平台。
關於在全球層面加強規則的協調性,張曉強調了聯合國的作用。比如在抗擊疫情、保護知識產權方面,聯合國通過健全機制成功地進行了全球治理。而在AI時代,由於技術發展過快,全球共識難以達成,聯合國至少可以在其中發揮協調多方規則、共同應對風險的作用。
她提出,可以將跨境數據等定義清楚,從而構建一個邏輯自洽統一的治理體系。曾毅則表示,應建設更良性、更包容、互惠互利的跨境數據流動機制。
“治理問題本質上是規則問題,”姜奇平説,“除了要考慮政府關心的問題以外,也要考慮企業的關切。這是發展的時代,規則的制定要讓我們的企業好過一些。”
政府不僅要保證企業的安全,還要有服務意識,比如杭州對“六小龍”的培育和支持。杭州政商服務有句話是“不叫不到,隨叫隨到,服務周到”,姜奇平説,這意味着以人民為中心,想企業之所想,關心發展大局,而不是自我保護和固步自封。
此外,姜奇平在對話中特別提到,他發現了以前從未出現過的咄咄“怪事”:窮國用上先進技術,而富國還在用落後技術。
他表示,美方提出脱鈎後,全球化朝着“半球化”在演進,與此同時,中方則幫助“一帶一路”沿線國家建設基礎設施。
3月20日,一份歐洲議會文件被曝光,內容稱至少14個歐盟國家不想在發展5G網絡方面減少對中國通信公司華為和中興設備的依賴。姜奇平説,歐洲人在排斥華為一事上後悔了,用上中國基站、有了更先進生產力的非洲兄弟卻喜氣洋洋。