“這才是美國懼怕、打壓中國AI的真正原因”_風聞
文化纵横-《文化纵横》杂志官方账号-32分钟前
賈開
上海交通大學國際與公共事務學院
【導讀】近日,Gpt5.0正式發佈,但並沒有宣佈模型參數,OpenAI的閉源性質引發了關於如何促進AI技術公平的深入討論。儘管開源面臨許多爭議與挑戰,但它仍然被視為實現AI反壟斷和民主化的重要路徑。今天的人工智能行業就像處在《黑客帝國》的抉擇之中:紅色藥丸代表着徹底開源,儘管能激發創新,卻也意味着我們必須要接受不確定風險;而藍色藥丸則代表着少數公司掌控技術命脈,在確保安全的同時,卻讓大多數開發者位於生態鏈的末端。
本文指出,在人工智能領域,“開源”的內涵已遠超傳統軟件開發的範疇。它不僅指任何人都能查看、修改源代碼,更指代以“可獲得”“可接觸”“可應用”為特徵的多重開放形式與機制。也正是緣於此種變化,當前圍繞開源人工智能的價值與風險才出現了更多的爭議。
作者認為,**只有真正的開源開放,軟件代碼才能獲得持續創新動力。**在技術範式可能變遷(如突破規模定律)的背景下,開源的戰略價值可能遠超當前預期。開源在促進科學共享、提升透明度、防止技術壟斷等方面具有積極價值,但也需正視技術濫用風險與大型科技公司控制不確定性等問題。未來,我們需要全面看待人工智能開源在當下複雜環境中的多面性。
本文原載《文化縱橫》2025年第4期,****僅代表作者觀點,供讀者思考。
人工智能應該開源嗎?
儘管大眾並不那麼熟悉,而且總被視為技術社羣的內部產物,**“開源軟件”事實上構成了絕大多數數字技術的基礎,並支撐了人類社會數字化轉型的歷史進程****。**哈佛大學2024年的報告估計,開源軟件帶給全社會的價值高達8.8萬億美元,幾乎是世界第三大經濟體日本GDP的兩倍還多。同時,更重要的是,開放源代碼供他人自由使用、學習、修正、再分享(“四大自由”)的開源理念,已經不再被視為“反常”的例外現象,而成為數字從業者的一般共識乃至精神信仰。只有開源開放,軟件代碼才能獲得持續創新動力,這一技術生態演化規律也得到了普遍認可。
但就是在這樣的歷史共識基礎上,近年來人工智能開源卻招致了諸多質疑,並影響了利益相關方的開源決策。例如OpenAI在2023年發佈GPT-4時就選擇從開源轉向閉源,不再公開模型權重、參數規模及相關訓練過程信息。伴隨着人工智能技術演化進程的深入,特別是在2025年初DeepSeek開源模型取得優異性能的激勵下,人工智能開源再次獲得了新的支持與關注,以至於OpenAI在2025年4月又宣佈將重新擁抱開源。需要看到,OpenAI開源策略的變化只是人工智能開源爭議的一個縮影,其背後反映出技術演化進程中生產力、生產關係正在動態調整的不確定性。這也凸顯出人工智能開源爭議在當前時代的重要性——其已經超越了簡單的技術治理範疇,而成為事關人工智能技術革命未來演化方向的關鍵議題。
****▍****開源人工智能理念的爭議:“公開洗地”還是“實質開放”?
開源軟件的普遍應用使得“開源”這種行為被賦予了道德規範層面的價值,並內化為數字從業者認為“應該”做的“對”的事情。但開源人工智能與開源軟件在以下兩方面的差異,使得前者面臨着一些質疑與批評。
一方面,人工智能開源的內涵遠比開源軟件的代碼開放更為複雜,其具體表現為三個維度的開放:支撐模型訓練的計算框架工具(例如TensorFlow),作為訓練結果的模型網絡權重(例如不同大小的Llama模型),模型訓練所需數據、算力以及訓練過程中積累的知識經驗等相關資源。對於人工智能廠商而言,開源主要集中於工具和權重模型的開放,而往往限制資源的開放,這雖然滿足了可及性要求(可獲得、可使用),卻難以支撐技術復現與社羣成員的能力學習。**另一方面,開源人工智能許可協議中往往添加了不同強度的限制性條款,這又具體表現在開源許可對象、適用地域、使用行為、可延伸性等多個方面。**例如,Llama 4模型將許可對象限於非商業主體及月活躍用户不超過7億的商業實體,並強調開源模型的許可不得轉讓、存在終止可能,並要求被許可方在使用開源模型時遵守相應法律規範。相比之下,開源軟件的傳統精神是強調“四大自由”,其將開源者權利僅侷限於署名權,而避免對使用者、使用方式施加任何限制性約束,從而給予開放創新以最大的包容性空間。
正是由於上述兩點差異,**人工智能廠商的開源行為被批評者質疑是“公開洗地”(openwashing)而非“實質開放”****,即為了宣傳企業聲譽或逃避法律責任而採取的投機性行為,並沒有真正踐行開源精神。**為了糾正並抵制廠商的“公開洗地”,開源軟件社羣試圖給出“開源人工智能”的精確定義以促進新共識的形成。例如“開放源代碼促進會”在2024年10月即提出了首個定義,沿襲開源軟件的“四大自由”精神,並對開源人工智能在數據、代碼、權重等維度的開放方式和程度提出了明確要求。但這一定義同樣引起了業界爭議,以數據開源要求為例,考慮到大模型的訓練數據往往涉及諸多版權或所有權爭議,而各國司法實踐尚未對此做出定論,因此要求人工智能開源方公開數據來源特徵、獲取方式、處理過程等信息以支撐技術重現並不現實。
需要指出的是,**“開源人工智能”的定義之爭並不僅僅反映理念分歧,其還具有事實上的法益價值。**例如歐盟《人工智能法案》在提出諸多法律責任要求的同時也為“開源人工智能”提供了豁免保護,這便使得如何定義“開源人工智能”的內涵及邊界至關重要,而法律本身並未對此給出明確回答,這就使得概念定義之爭將直接影響司法實踐並決定利益結果,由此凸顯出理念爭議的重要性。
****▍****開源人工智能價值的爭議:開源能促進發展嗎?
**開源人工智能的理念和定義之爭,其背後反映了“開源”作為一種生產與再生產模式對人工智能技術生態演化有何價值的疑問。**對於軟件生產與再生產而言,因開放源代碼而帶來的“四大自由”至關重要,其既能夠通過“眼睛多了、臭蟲(Bug)就好找”的機制,有助於軟件漏洞的發現與修補;也能夠通過開放創新、分佈式創新機制促進技術普惠,利用軟件“零邊際成本”特徵、挖掘需求端信息從而兼顧規模經濟和範圍經濟。但人工智能時代提出的新問題在於,開源是否仍然能夠依託這兩種機制來推動人工智能技術創新?如果不能,開源對於人工智能發展的價值又在何處?
**事實上,針對人工智能開源的一個核心質疑就在於,開源人工智能被認為在性能上比不過閉源人工智能。**尤其在前沿模型領域,在“規模定律”為主的技術範式下,只有廠商而非技術社羣才能支撐數據、算力、網絡等海量資源的持續投入。OpenAI聯合創始人、首席科學家伊利亞·蘇茨克韋爾(Ilya Sutskever)進一步提出,這些投入將成為企業的核心競爭力和商業秘密,並因此沒有理由向社會開放,而這也正是GPT-4由開源轉向閉源的重要原因。
但2025年初DeepSeek V3和R1開源模型可被視為對此質疑的有效回應,其證明了在有限資源約束條件下同樣能實現高性能的大語言模型。在此背景下,OpenAI首席執行官山姆·阿特曼(Sam Altman)甚至承認在開源、閉源問題上,“OpenAI站在了歷史的錯誤一方”。
**不過DeepSeek的成功並不代表開源促進人工智能發展的內在機制與開源軟件完全類似,二者的差異仍然存在。**與開源軟件類似,開源人工智能的確有助於暴露技術風險、漏洞、短板,並因此反哺開源模型,提升其性能。**但是,開源模型本身的高門檻卻限制了開放創新、分佈式創新的範圍和效果:**一方面,與單個程序員就能理解開源軟件代碼並做出改進相比,即使模型權重開放,後續開發者仍然需要數據、算力、工程經驗等相關資源的支撐才能實驗開源模型,並按照自己的需求開發衍生模型;另一方面,基礎模型性能提升的最大動力似乎仍然來源於“規模定律”,衍生模型創新目前並不能直接反饋於基礎模型的迭代進步。
但即便如此,開源能促進人工智能發展的趨勢和共識也正日益明顯。事實上,儘管開源不能直接促進基礎模型的性能增長,但這一理論的前提是“規模定律”作為主流範式的持續存在,而當前開源已經打開了人工智能多重技術路線探索空間,未來並不能排除技術範式變遷的可能性。更為重要的是,無論範式是否變遷,我們目前已經看到了開源所帶來的人工智能普惠化對生產力賦能的實際效果,而這將可能創造“後福特主義”的新產業格局。哥倫比亞大學教授查爾斯·賽伯指出,發展效率存在不同定****義,對於生產者而言,效率意味着以最低的浪費來使用資源和技術能力;對於消費者而言,效率則意味着對其需求的最大化滿足,而開源無疑會促進後者。這也體現在了相關數據中。IBM在2024年底的一項全球調研中顯示,未使用開源人工智能的企業中只有41%表示在AI領域的投資回報已經顯現,而使用開源人工智能的企業則是51%。
例如,現在一架空客A380客機有400多萬個零部件,由全球1500多家公司供應,其中很多公司是專注於研發和生產特定零部件。隨着人口鋭減,大型客機的需求最終將大幅下降,產能難以為繼,更不用説研發新型號。而許多專注於特定零部件的公司可能被迫關閉,幾代工程師積累的經驗、知識和技能可能失傳。又如,等到人口變得很少,有人不幸患上某種罕見病,也只能聽天由命。小得多的人口基數中,同樣病的患者屈指可數。製藥公司沒有動力為數量太少的患者羣體研發藥物。甚至以前的治療方案,也會因醫生經驗太少而難以使用。
****▍****開源人工智能風險的爭議:開源會使人工智能失控嗎?
**與開源人工智能價值爭議緊密相關的,是開源是否會放大人工智能風險,甚至導致人工智能失控。**圖靈獎得主約瑟夫·本吉(Yoshua Bengio)的觀點具有代表性,其反對人工智能開源的理由主要有三點:人工智能開源方不能確保其模型是安全的、開源人工智能領域存在安全研究投入遠小於性能研究的結構性偏差、人工智能的強大能力(類似於核武器)很可能被誤用而開源則為此提供了工具或渠道。但同為圖靈獎得主的楊立昆(Yann LeCun)卻提出了針鋒相對的三點反對意見:首先,憑空想象AI的安全風險是無意義的,重要的是如何設計安全的人工智能系統,而開源至少是重要路徑之一;其次,沒有充分數據或理由證明當前人工智能安全研究是缺失的,而能普及應用的開源將促進更多資源投入其中;再次,將人工智能類比於核武器是愚蠢的,其不會比汽車、計算機更像武器,在沒有充分發展人工智能之前討論限制其安全風險是不理智的。
**不同人的觀點差異只是開源人工智能風險爭議的淺層表現,相關分歧還直接表現為人工智能安全治理政策實踐的事實差異。**拜登政府2023年10月發佈《安全、穩定、可信人工智能的開發與應用行政令》,其中第4.6條要求對能夠廣泛獲取的、具有“雙重用途”(dual use)的大模型展開監管政策研討和評估,但並沒有針對閉源人工智能提出相應類似要求,這被認為“非對稱”地加重了開源人工智能的合規負擔,其潛在假設認為開源人工智能會導致特殊的安全風險。但另一方面,美國國家電信和信息化局開展的評估工作卻證明並非如此。該局將閉源模型、其他現有的非人工智能技術(如互聯網搜索引擎)、已經開源的人工智能模型作為基準,來評估新開源一個人工智能模型是否會帶來新的“增量風險”。該局基於廣泛調研後認為,現有研究和證據無法證明人工智能開源存在“增量風險”,並因此給出了開源模型暫不需要額外管制的政策建議。從美國政策走勢來看,特朗普政府上台後廢除了拜登政府行政令而選擇了“增量風險”的治理思路,這也代表了該屆政府期內對待開源人工智能安全風險的開放態度。
2025年初,伴隨着以DeepSeek為代表的開源人工智能的新發展,人工智能正在進入普及應用新階段,而這也使得安全風險範疇從算法歧視、算法“黑箱”、虛假內容等傳統技術安全議題,進一步向就業結構變遷、社會信任侵蝕、社會保障衝擊等具有更深遠影響的“技術-社會”系統安全議題拓展。在此背景下,圍繞開源人工智能安全風險的爭議並不會因為特朗普政府一時的政策選擇而終止,未來我們仍將看到持續且更為複雜的相關討論。
****▍****開源人工智能的“地緣政治”:促進合作,還是深化競爭?
圍繞開源人工智能的爭論不能脱離當前地緣政治的時代格局,而開源人工智能爭議本身也作為地緣政治的重要子議題受到了越來越多的關注。但這一現象在開源軟件的歷史上是較為少見的,因為**開源一直都被視為打破技術封鎖、促進國際合作的重要機制,而非強化大國競爭的工具。例如,二戰中被應用於軍事領域的加密技術,在戰後被美國納入了限制出口的管制清單,但伴隨互聯網時代的到來,將加密技術應用於通信和商務領域的民用需求不斷增加,由此驅動加密技術開始以開源形式傳播、使用、開發,並因此在事實上打破了政府對於軟件代碼的控制能力,使得美國不得不放鬆管制並於1999年最終放棄。該案例揭示了大國技術競爭過程中,開源軟件在推動知識擴散、促進國際合作方面的積極作用。**但對開源人工智能來説,這一積極作用卻呈現出相當的複雜性。
**一方面,開源人工智能同樣有助於打破政府對技術流動的管制。**DeepSeek在資源約束下實現的相對高性能結果,便在很大程度上削弱了美國限制算力芯片出口的政策效果。儘管這並不代表高性能計算芯片的重要性降低了,但至少意味着以開源為基礎的多重技術路線探索仍然是有效的。**但另一方面,開源人工智能卻並沒有像開源加密軟件那樣終結政府管制、促成全球合作,其反而可能激發更復雜的大國競爭格局。**以特朗普政府為例,其並沒有改變針對性的技術競爭政策導向,而是以限制他國開源人工智能生態擴散為目標,廢除了拜登政府時期的限制出口政策,轉而更加積極地推動本國人工智能技術和產業的全球擴散。在此背景下,我們未來可能在國際社會中看到更多而非更少的大國競爭、企業競爭、生態競爭。
合作、競爭這兩種機制究竟哪種會主導未來人工智能技術與產業演化進程,我們尚不得而知,但開源人工智能與地緣政治相互影響的複雜格局,仍然構成了當前的重要爭議焦點。
****▍****開源與人工智能的未來演化
從前述分析來看,圍繞開源人工智能的上述四點爭議,並不僅僅只是技術社羣差異觀點的簡單表現,而是涉及人工智能技術演化及其社會影響,以及未來發展走勢的關鍵問題。**這些爭議緣起於人工智能與傳統軟件的技術特徵差異,卻與人工智能監管政策、創新生態、大國競爭等時代問題緊密關聯,並在根本上反映了人工智能技術演化進程中,公共利益與私人利益如何平衡、國家與市場關係如何重構、國際權力結構如何變遷等主要矛盾。**在此意義上,開源人工智能爭議將如何持續演化,到底會最終形成共識還是出現更大分歧,都值得利益相關方的普遍關注。