奇安信集團董事長齊向東接受《環球時報》採訪:應對AI安全風險,有三方面可以入手
作者:白云怡 赵觉珵
【環球時報報道 記者 白雲怡 趙覺珵】編者的話:中國人工智能企業深度求索(DeepSeek)取得的突破為中國AI發展注入一劑強心針,也推動一些國內外同行的開源舉措和應用拓展,同時,被檢測到的“職業打手”對其展開的網絡惡意攻擊也讓人們關注技術狂飆背後亟待應對的安全問題。《環球時報》財經觀察“關於AI的跨界對話”系列第二篇邀請到剛參加完民營企業座談會的奇安信集團董事長齊向東,該集團主要向政府、企業用户提供網絡安全產品和服務。在訪談中,齊向東以一線從業者的視角,剖析行業發展和挑戰,也就築牢AI安全根基提出自己的理解。
平衡技術創新與安全風險成為AI行業重要課題
*環球時報:*今年春節期間,國產大模型DeepSeek-R1成為各界關注的焦點。作為業內人士,您認為DeepSeek對人工智能整個行業意味着什麼?
*齊向東:*我認為DeepSeek的成果對行業至少有三點深遠意義。第一,DeepSeek打破了美國等國在人工智能行業長期以來近乎壟斷的市場格局,能憑藉相對較低的成本促進大模型應用大爆發。以前提到人工智能大模型,我們會下意識想到美國OpenAI的GPT系列、Google的BERT、Meta的大模型等。這些大模型在性能、應用場景拓展、商業落地等方面樹立了行業標準,左右着輿論走向與資本流向。而DeepSeek顛覆了主流的“大數據、大參數、大算力”創新路徑,相比於ChatGPT,它的訓練成本和推理成本都大大降低,對使用AI模型的應用開發者、廣大消費端用户來説,是極大利好。
第二,DeepSeek公佈開源策略,推動人工智能行業走向更加開放、合作的嶄新時代。過去,受技術封鎖與商業壁壘的雙重禁錮,人工智能領域難以實現資源的高效共享與全方位協同發展。巨頭企業在技術研發上各自為戰,中小企業和初創團隊缺乏核心技術支持,很難嶄露頭角。這次DeepSeek開放了眾多核心資產,提供授權。相比於Meta開源模型,DeepSeek的開源更徹底、更透明,技術細節更多,讓開源生態欣欣向榮。比如美國人工智能公司Hugging Face只用了短短幾周時間,Open-R1復現項目就取得重大進展。AI巨頭也相繼加速技術開放和更新,OpenAI免費公開推理功能,百度免費向公眾開放文心一言。同時,全球科創企業紛紛接入。DeepSeek的開源策略就像“發令槍”,讓人工智能行業開始擺脱封閉與孤立,邁向資源共享、攜手共進的光明未來。
第三,DeepSeek一問世,針對性的高強度網絡攻擊就爆發了,給人工智能行業敲響了堅守安全底線的警鐘。攻擊從最初的代理攻擊,SSDP(簡單服務發現協議)、NTP(網絡時間協議)反射放大攻擊,到針對應用層的DDOS(分佈式阻斷服務)攻擊,破壞性越來越強。後續,又監測到2000多個針對DeepSeek的仿冒網站、釣魚網站。未來隨着人工智能大模型的基礎設施地位越來越突出,針對性的惡意手段和風險場景也將激增,伴生的數據隱私、認知安全、基礎設施等安全風險超乎想象。對於整個人工智能行業來説,平衡技術創新與安全風險必會成為重要課題。
“自下而上”的創新張力對產業發展意義重大
*環球時報:*正如您所説,DeepSeek的開源策略打破“巨頭壟斷”模式。另一方面,我們注意到,包括DeepSeek在內的杭州“六小龍”也都是“野生”的民營企業。在您看來,中國AI創新是否有“草根化”的趨勢?
*齊向東:*中國AI創新的“草根化”趨勢確實很明顯,這跟國家的前瞻性佈局、政策扶持以及全方位的資源投入密不可分。AI屬於通用型創新,它的獨特之處在於並非由權威主導,而是由廣大創業者主導的。這次DeepSeek的爆火,以及杭州“六小龍”等科創企業的成功,都很好地印證了這一點。但我們也必須清楚,沒有國家作為堅實後盾,這些“草根”力量也是難以茁壯成長的。年初,國家AI產業投資基金成立,為技術創新和應用拓展釋放了更多增長空間。
繼續守護並延續AI創新的“草根化”趨勢,保持“自下而上”的創新張力,對中國AI產業發展乃至整個科技創新生態意義重大。我建議國家從政策引導、優化營商環境、生態協同等維度入手,進一步激發民間創新創業熱情。
自身問題、“飽和式”攻擊和“網絡攻擊大爆炸”
*環球時報:*不久前DeepSeek線上服務受到大規模惡意攻擊,這也讓大模型的安全問題受到關注。從奇安信XLab實驗室監測到的最新情況看,近期對DeepSeek的網絡攻擊是否仍在繼續?
*齊向東:*近期針對DeepSeek的網絡攻擊烈度有所下降,但攻擊行為仍未完全停止。除夕當天,奇安信發佈報告,針對DeepSeek攻擊事件發出預警。大年初一,攻擊烈度果然激增,作為“職業打手”的殭屍網絡開始下場,DeepSeek服務器遭到重擊。春節期間這波攻擊峯值過後,針對DeepSeek的攻擊有所下降,但依舊時有發生。2月10日,我們檢測到一個新的殭屍網絡moobot曾短暫參與過攻擊,但並未造成實質影響。
2月初,我們通過跟蹤監測發現,針對DeepSeek的仿冒網站、釣魚網站數量已超過2000個,並且還在快速增加,於是再次發佈預警,提醒用户保持警惕。
上週,我們發現目前活躍的運行DeepSeek等大模型的服務器有九成沒有采取安全措施。這種“裸奔”狀態會導致任何人不需要任何認證即可隨意調用、在未經授權的情況下訪問這些服務,極有可能造成數據泄露和服務中斷,甚至可以發送指令刪除所部署的DeepSeek、Qwen等大模型文件,存在嚴重的安全隱患。
*環球時報:*總的來看,您認為中國的人工智能發展主要面臨哪些安全風險?該如何應對?
*齊向東:*現階段大多數政企機構對人工智能大模型的部署比較隨意,所伴生的網絡和數據安全風險超乎想象。我認為人工智能發展面臨的安全問題大致可以分三類。
第一類是人工智能大模型自身的安全問題,包括開發風險、數據風險、應用風險和基礎環境風險。開發方面,開源大模型可能會存在代碼缺陷和預留後門等問題;應用方面,可能會有“內鬼”對訓練數據進行投毒,篡改模型和配置;數據方面,內部配置錯誤和弱口令等會造成數據庫暴露;基礎環境方面,要重點關注雲、API(應用程序編程接口)、傳統設備漏洞等。
第二類是利用人工智能開展網絡攻擊的問題。人工智能促進了網絡攻擊手段的更新迭代,“飽和式”攻擊成為可能,攻擊者可以瞬時發動海量攻擊打垮已有的網絡安全體系。人工智能還提升了“以假亂真”的能力,導致深度偽造、認知戰、釣魚等威脅加劇,人工智能可能被不法分子利用,通過“換臉變聲”輸出虛假信息,開展網絡詐騙,或輸出背離主流價值觀的內容,引發社會認知混亂。
第三類是通過攻擊人工智能引發的“網絡攻擊大爆炸”。未來人工智能會成為社會的基礎設施,當大模型嵌入智慧城市、工控系統、智慧政務等關鍵領域時,會放大漏洞等傳統安全威脅,一旦人工智能大模型遭到攻擊可能會牽一髮而動全身,引發社會服務中斷、生產停滯、隱私數據泄露等安全事件。
要應對這些風險,我建議從三方面入手:一是建立適配大模型的縱深防禦體系,築牢人工智能的安全根基;二是加快跟進針對人工智能大模型的強制性安全合規要求,確保監管的有效性和適應性,明確大模型安全的組織架構,對基礎安全、數據安全、應用系統開發安全、運行安全等方面提出清晰的技術保障要求,同時做好大模型運行安全監測和內容風控,定期開展安全評估測試,一旦發現異常行為或潛在的安全事件,第一時間進行處置,將安全威脅消除在萌芽狀態;三是推廣“AI+安全”創新成果落地,走好提升安全能力的必經之路。