DeepSeek AI革命面臨安全隱憂——彭博社
Parmy Olson
聚焦安全問題?
來源:彭博社
上週,深度求索公司以極低成本構建強大AI的能力讓硅谷陷入恐慌。從某些方面看,這好得令人難以置信。
最新測試表明,深度求索的AI模型比硅谷那些投入高昂的競爭對手更容易被操控。這對其突破性成果所標榜的"民主化AI"大衞對戰歌利亞敍事提出了挑戰。OpenAI、谷歌母公司Alphabet、微軟等企業在AI基礎設施上投入的數十億美元,現在看來不像是企業鋪張浪費,而更像是領跑AI競賽、通過更安全服務保持優勢的必要成本。急於嘗試這款物美價廉AI工具的企業需要三思而後行。
彭博社觀點特朗普與習近平在孫子兵法式貿易戰中各顯神通特朗普在烏克蘭的資源爭奪值得付出代價特朗普的貿易戰實為毒品戰爭?工黨未能向選民成功推銷其增長議程瑞士軟件公司LatticeFlow AI專門評估AI模型合規性,其報告顯示深度求索R1模型的兩個版本在網絡安全方面處於領先系統中的末位。這家中國公司在改進Meta Platforms和阿里巴巴的開源模型Llama與Qwen以提升效率時,可能破壞了這些模型原有的關鍵安全特性。
LatticeFlow指出,DeepSeek的模型特別容易受到"目標劫持"和提示詞泄露的攻擊。這種現象指人工智能可能被誘導繞過安全防護措施,泄露敏感信息或執行其本應阻止的有害行為。記者未能聯繫到DeepSeek置評。
當企業將系統接入生成式AI時,通常會採用DeepSeek或OpenAI等公司的基礎模型,並加入自身數據、提示詞和業務邏輯指令(例如"不得討論公司去年500萬美元的預算削減")。但LatticeFlow AI首席執行官佩塔爾·贊科夫警告,黑客可能竊取這些敏感指令。
其他安全研究人員持續測試DeepSeek模型時發現,該模型存在誘導其執行越界行為的漏洞,例如提供製造炸彈或偷車的詳細步驟,這種突破AI限制的行為被稱為"越獄"。以色列AI安全公司Adversa AI(曾測試過DeepSeek模型)CEO亞歷克斯·波拉科夫表示:"[DeepSeek]對所有越獄攻擊毫無防禦力,相較我們去年測試的非推理版本,OpenAI和Anthropic的推理模型已安全得多。"
Tsankov表示,那些因低價而仍想使用DeepSeek的企業可以通過臨時方案緩解問題。一種方法是對DeepSeek模型進行額外訓練適配,這一過程可能耗資數十萬美元;另一種是新增整套指令集,要求模型拒絕響應竊取信息的嘗試。據Tsankov稱,此類"打補丁"方案成本較低,僅需數千美元。
當企業將生成式AI用於低風險任務(如內部數據報告摘要)時,這些安全隱患或許尚可接受。但更廣泛來看,在AI落地進展相對緩慢的當下,DeepSeek的安全漏洞可能打擊企業信心。
倫敦調研機構Evident Insights數據顯示,雖然2024年約50家大型銀行的生成式AI應用增至300個左右,但能明確體現降本、增效或增收的企業不足四分之一。
生成式AI工具無疑極具智慧且將帶來變革。用知名AI評論家Ethan Mollick的話説:你用過最笨的AI工具就是當前正在使用的。但其商業落地始終斷斷續續且進展緩慢,部分原因正是安全與合規隱憂。多項調研顯示,約三分之一至半數企業高管將AI安全視為首要顧慮。
這一切都不會削弱深度求索的成就。該公司已經證明,人工智能的開發可以更經濟——通過在網上公佈其藍圖,我們很可能會看到大型AI實驗室複製他們的成果,以打造自己更高效的人工智能。但在企業技術領域,“更便宜”並不總是意味着“更好”。安全基礎設施昂貴是有原因的,這給了硅谷巨頭們一個證明自己的機會。即使在開源AI革命中,一分錢一分貨。
更多來自彭博觀點的內容:
- AI復活逝者威脅我們對現實的把握:帕米·奧爾森
- 深度求索為馬克龍的AI夢想帶來現實考量:利昂內爾·洛朗
- 深度求索只是對沖基金創新的最新案例:馬克·魯賓斯坦
想要更多彭博觀點?OPIN<GO>。或者您可以訂閲我們的每日通訊。