劉文郡:以人為本,引領全球人工智能向善
作者:刘文郡
“未來生命研究所”近日發起的公開聲明,猶如一記重錘,敲響了智能時代的警鐘。這份聲明由人工智能(AI)先驅傑弗裏·辛頓、蘋果聯合創始人史蒂夫·沃茲尼亞克等超3000名海內外科技領袖聯署,呼籲在科學界達成“安全可控開發超級智能的廣泛共識”前,暫停開發超越人類控制的“超級智能”。這一行動,不僅是對技術狂飆突進的深刻反思,更是對人類文明未來命運的集體叩問。它向世界傳遞出一個清晰信號:人工智能的安全發展,已不再是某個國家或羣體的內部事務,而是全人類共同的責任與使命。
長期以來,以美國科技巨頭為代表的“技術決定論”思潮深刻影響着AI的發展路徑。他們信奉“先發展、後治理”的邏輯,不惜以犧牲安全、倫理和社會共識為代價追求技術領先。這種放任風險、追求壟斷的霸權思維,不僅加劇了全球AI治理的碎片化與對抗性,更將整個人類文明置於不可控的系統性風險之中。深度偽造技術擾亂世界、算法歧視加劇社會不公,在人類做好準備,形成對技術的有效控制機制前,若出現具備自主目標設定能力的超級智能,將可能威脅人類的主體地位。
面對“發展優先”、鼓勵技術創新以搶佔未來制高點的主張,另一方則堅持“安全至上”,呼籲在風險未明、控制機制缺失時對高風險研發按下“暫停鍵”。此次聯署正是後一立場的集中體現,其背後是以“不傷害優先”為核心的倫理邏輯,值得全人類深思。
然而,僅靠“暫停”無法解決根本問題,真正的出路在於構建一個開放、包容、公平的全球治理體系。這要求各國摒棄零和博弈的冷戰思維,放棄以“小圈子”規則排斥異己的狹隘路徑,真正站在人類共同命運的高度,攜手應對挑戰。人工智能的治理,不能由少數精英或大國博弈主導,而應建立在廣泛科學共識與公眾參與之上。要推動在聯合國等多邊框架下建立全球性治理公約,制定透明標準與風險評估機制,儘快開展國際安全合作與倫理對話,共同應對可能的威脅。同時,也要幫助發展中國家跨越“智能鴻溝”,避免技術壟斷加劇全球不平等。唯有如此,才能確保AI的發展成果由世界人民共享,而非成為少數國家操控世界的工具。
中國始終是負責任的人工智能大國。我們深刻認識到,發展是第一要務,創新是核心動力。在中國,AI作為引領新一輪科技革命和產業變革的戰略性技術,已成為培育新質生產力的關鍵引擎。從智能製造到智慧農業,從醫療診斷到城市治理,藉助海量數據資源、豐富應用場景和完整產業體系,中國AI產業正以前所未有的深度重塑經濟社會結構,在大模型、計算機視覺、自然語言處理等前沿領域也已作出諸多探索與貢獻。在賦能千行百業之外,AI更將服務於人的全面發展,實現解放生產力、發展生產力。因此,中國應堅定不移推進核心技術攻關,支持原創性、引領性創新,在智能體等前沿方向保持戰略投入,在全球科技創新中勇立潮頭。
另一邊,中國始終堅持安全底線要求,絕不以犧牲底線安全作為發展的代價。隨着AI系統日益複雜,潛在風險已從局部性、可逆問題轉向系統性、不可逆挑戰。中國始終秉持“以人為本、智能向善”理念,一貫主張統籌發展和安全,既不因噎廢食,也不盲目冒進,構建動態平衡、協同演進的治理範式。例如按風險等級分類監管——對自主武器、大規模社會評分等高風險系統執行嚴格准入與全程監控,對中低風險應用鼓勵試點、包容審慎;比如推動倫理先行,完善全週期倫理審查,將公平、透明、可解釋性原則嵌入研發過程,強化科研人員社會責任……
中國的發展路徑,一直秉持敞開大門的態度,願與世界各國攜手,以“統籌發展和安全”辯證的東方智慧,為全球AI治理貢獻中國智慧與中國方案。中國支持推動建立的多邊、民主、透明的國際AI治理體系,不是單極主導的規則輸出,也不是各自為政的碎片化監管,而是各國平等參與、共享成果、共擔責任的命運共同體。
站在今天的歷史節點,人類與世界將往何處去,是一張攸關全人類命運的共同考卷。要共同走向未來,我們需要挺膺擔當,攜手全人類通過這場智能時代的“入門測驗”,讓人工智能真正成為推動人類文明進步的“普羅米修斯之火”,而非吞噬一切的“潘多拉魔盒”。(作者是國家行政學院馬克思主義學院教師、習近平新時代中國特色社會主義思想研究中心研究員)