AI時代,我們應該如何看待“安全”新命題?_風聞
产业家-产业互联网第一媒体51分钟前

不同於雲計算時代的安全命題,AI時代的安全威脅不僅來自外部,還可能來自內部,且威脅的性質更加複雜和多樣化。能看到的是,安全挑戰正在擴展到企業AI體系的全生命週期,防護手段急需升級。
作者|鬥鬥
編輯|皮爺
出品|產業家
在短短10分鐘內,一筆高達430萬元的鉅款被騙走。這僅僅是AI技術普及後,由AI換臉、變聲等技術引發的違法犯罪案件冰山一角,直接觸及消費者身邊的安全問題。
奇安信發佈的《2024人工智能安全報告》數據顯示,2023年基於AI的深度偽造欺詐案件激增了3000%。
生成式AI不僅為企業帶來速度、規模、精度和先進性等益處,也降低了攻擊者的技術門檻。過去,黑客生產一個攻擊病毒可能需要數月時間,但現在通過AGI(人工智能生成模型)工具,可能幾分鐘就能生成,黑客攻擊的效率和範圍因此大大提高。
另一組來自DeepInstinct的第四版報告指出,2024年有75%的安全專業人員目睹了網絡攻擊的增加,其中85%的攻擊由生成式AI驅動。

黑客不僅會利用AI技術威脅企業組織,**還會嘗試攻擊企業的AI模型,**即利用企業的AI來對付企業。例如,他們可能讓企業的AI對供應鏈做出錯誤預測,或者使聊天機器人產生仇恨情緒。他們還可以通過使用基於語言的提示來“破解”企業的LLM,使其泄露機密財務信息、創建易受攻擊的軟件代碼,或為企業的安全分析師提供錯誤的網絡安全響應建議。
此外,**黑客還覬覦企業的大模型基礎設施。**例如,2024年初,美國一個擁有數千台服務器的算力集羣就被攻破,並被用於挖掘比特幣。
AI,正在全方位“威脅”企業安全,包括網絡安全、軟件安全、數據安全、主機安全,以及倫理安全和人質安全等多個方面,呈現出複雜性和多元性的特點。 這迫使許多企業不得不增加預算,以應對AI時代帶來的各種變數。
根據IBM的“生成式AI時代的網絡安全研究報告”,高管們表示,他們2023年的AI網絡安全預算比2021年增加了51%,並預計到2025年,這些預算將再增加43%。

在AI引導 的新一輪技術革命中,技術服務商既需要利用AI技術提升安全能力和運營效率,又需要助力對抗新技術帶來的新風險。而對於企業來説,必須緊跟時代步伐,但如何規避沿途的危險,成為了一個亟待解決的問題。
AI時代,安全這道題如何解?
一 、AI技術,發展的“暗面”
“狹義的數據安全是免受篡改和破壞,但是廣義的數據安全是包括數據的可靠性、安全性、服務內容的安全性,在人工智能時代,還會擴展數據安全的內涵,當然也會放大數據安全的風險。” 中國工程院院士鄔賀銓曾説道。
一個事實是,**在AI時代,數據安全的定義正在發生變化。**AI技術的脆弱性和對數據的強依賴性,使得企業在享受AI帶來的便利時,也面臨着前所未有的數據安全挑戰。
企業想要實現AI賦能,首要步驟便是收集大量、多樣且具代表性的訓練數據。 然而,這些數據的來源可能並不安全,收集過程中存在 被竊取的風險,甚至可能因未經同意而違反隱私政策和法律。
數據收集之後,還需經過清洗、標註和增強等處理環節。若此過程中有惡意數據注入,將直接導致模型訓練偏差,進而影響模型決策的準確性。奇安信數據安全首席科學家劉前偉曾強調:“標註數據的防篡改要求非常高,因為它是確保大模型質量最重要的保障。”
接下來,就是基於底層大模型訓練,需要使用專有數據對基礎模型進行微調和訓練,並保存成新的版本。
如果是合作模式,比如現在很多高校與企業或者企業與企業之間合作開發大模型。這種模式則需要共享數據資源,以增強模型訓練效果,並共同進行模型訓練和優化。
但無論哪種模式,都會面臨一定的數據安全問題。比如基於底層大模型訓練模式以及合作模式下,會出現這樣一種狀況,即雙方都想利用對方的數據,但是都不願意把自身的數據完整的交給對方,如果交給第三方,也不一定相信第三方非常公正和安全。
此外,**模型設計、訓練、調優、測試和部署等環節同樣不容忽視。特別是雲部署模式,**企業需根據自身業務需求選擇私有云、社區雲、公共雲或混合雲。然而,每種部署模式都面臨不同的數據安全問題。
對私有云而言,其本地存儲的數據如果缺乏有效的加密和訪問控制,可能會被未經授權的用户訪問。有權訪問敏感信息的員工可能會無意中或故意泄露數據。
公有云更是如此,其基於雲端的數據更容易受到黑客攻擊和數據泄露的風險,公有云服務的用户必須要正確配置身份驗證和訪問控制,否則可能導致數據泄露。
混合雲架構通常涉及不同雲計算提供商的基礎設施,數據在傳輸過程中可能被截獲。 且在混合雲環境中,身份驗證和授權變得複雜,需要統一的身份和訪問管理工具來確保安全。在混合雲中,數據如果沒有得到適當的冗餘和備份,數據丟失的風險會變得很大。
可以説,面對AI時代的複雜性和動態性,傳統的數據安全舉措已難以應對新的挑戰。企業需採取全面的安全策略,並持續進行技術改進,以最大限度地減少數據安全風險。這要求企業在數據收集、處理、存儲和傳輸等各個環節都保持高度警惕,確保數據的安全性和可靠性。
二 、AI對抗“AI”
在AI時代背景下,企業數據安全成為了不可忽視的重大課題。為了確保數據的完整性與保密性,一系列策略與技術應運而生。
數據加密作為數據治理的基礎防線,如同為數據穿上了一層堅不可摧的防護服, 無論是在數據傳輸還是存儲過程中,都能有效抵禦外部威脅。此外,同態加密技術的引入,更是為數據的加密防護增添了新的維度。它允許數據分析者在不解密的前提下對數據進行處理,既保障了數據的安全性,又滿足了數據分析的需求。
在數據標註與增強環節,訪問控制和多因素認證機制扮演着至關重要的角色。 它們如同城堡的守衞,嚴格把控着數據的入口,確保只有經過授權的用户才能訪問數據。同時,數據脱敏技術的應用,則為敏感信息披上了一層神秘的面紗,即使在必要的交流過程中,也能有效保護數據的隱私性。
模型安全方面,對抗性攻擊的防禦機制和模型水印技術為模型的安全保駕護航。 它們如同城堡中的陷阱與哨兵,時刻警惕着潛在的威脅,確保模型不受惡意攻擊和非法使用的侵害。
針對AI時代數據共享難題,隱私計算和多方同態加密技術提供了有效的解決方案。 通過特定的密鑰控制,實現數據的加密計算,確保數據在共享過程中既可用又不可見。此外,分佈式存儲與密鑰控制技術的結合,也為數據的按需調用與解密計算提供了便捷的途徑。
值得注意的是,在生成式人工智能時代,數據安全所面臨的挑戰愈發複雜多變。生成式AI以其強大的創造力,不斷催生新的數據和內容,同時也為數據安全帶來了新的風險。這些風險往往具有動態性和不可預測性,傳統的安全檢測方法可能難以有效應對。
面對這一挑戰,企業不能僅僅依賴人工或固定的檢測方法,而應藉助AI的力量,以AI對抗AI。
目前,越來越多的企業開始將AI技術應用於數據安全領域,通過機器學習和深度學習技術,即時監測網絡流量,識別異常行為,實現快速響應潛在的安全威脅。AI不僅能夠自動化安全策略的制定和實施,提高安全防護的效率和準確性,還能通過學習正常的網絡行為模式,識別出與眾不同的行為,實現早期威脅檢測。
IBM商業價值研究院的研究顯示,**64%的高管已將網絡安全確定為生成式AI用例的首要任務,84%的人表示他們計劃優先考慮生成式AI網絡安全解決方案,**而非傳統的網絡安全解決方案。這一趨勢表明,AI在數據安全領域的應用正逐漸成為主 流。

以阿里雲發佈的實人認證產品為 例,該產品能夠有效對抗Deepfake攻擊,提供八大Deepfake鑑偽能力,日均攔截攻擊量高達25萬次,攻擊攔截率高達99%。該模型還具備分鐘級自我更新能力,能夠應對不斷迭代的攻防技術,確保數據安全。
總之,在不斷變化的風險環境中,技術服務商需要藉助AI的力量來應對數據安全的新挑戰。通過不斷研發和優化AI安全產品和技術,更好地保護企業的數據安全,為AI技術的健康發展提供有力保障。
三、技術高峯中的安全窪地
一組引人深思的數據顯示,2023年,國內26家上市網絡安全企業中,有3/4處於虧損境地。然而,僅2024年上半年,就已曝出多起影響深遠的數據泄露事件,涉及的記錄數量驚人,高達十億條。
這種強烈的反差揭示了一個嚴峻的現實:儘管企業對安全技術有着迫切的需求,但技術供應商卻普遍面臨虧損。
背後的原因何在?
《2022年中國企業數據安全現狀調查報告》揭示了其中的關鍵:超過半數的企業認為,市場上的數據安全產品和服務僅能滿足其不到60%的需求。這意味着,現有的數據安全解決方案存在明顯的不足,導致企業在數據安全方面的投資未能達到預期效果,無法有效抵禦數據泄露和網絡攻擊的風險,進而造成資金損失。
需求和供給嚴重不匹配。
此外,在日益複雜的安全管理環境下,**企業往往面臨着諸多碎片化的安全問題。**公開數據顯示,企業平均部署的安全產品和工具多達76個,而混合雲的滲透率也在逐年攀升,這無疑增加了安全管理的複雜度。
因此,一個能夠全方面解決AI安全問題的方案顯得尤為重要。
一個事實是,不同於雲計算時代的安全命題,AI時代的安全威脅不僅來自外部,還可能來自內部,如AI系統的誤判、偏見、數據泄露等。且威脅的性質更加複雜和多樣化,包括數據隱私、算法偏見、模型安全等多個方面。安全挑戰也擴展到AI系統的全生命週期,包括設計、研發、訓練、測試、部署、使用、維護等各個環節。
所以,AI安全的防護手段需要進一步的補足。這種補足不僅涉及規範層面的完善,還需要具體的技術和管理措施來支撐。
比如制定嚴格的數據隱私保護法規,明確數據使用的範圍和目的,以防止數據濫用和泄露;制定統一的人工智能安全認證標準和規範,對AI技術和系統進行評估和認證;建立起AI的安全標準體系,確保各種AI系統都能夠遵循相應的安全規範。
9月9日,全國網絡安全標準化技術委員會正式發佈了《人工智能安全治理框架》1.0版(以下簡稱《框架》),並提出了AI安全治理原則,將AI安全風險分為內生安全風險和應用安全風險兩種,並針對兩種風險分別提出了技術應對措施。該《框架》的發佈將促進AI產業安全有序發展,加速AI技術規範化發展。
在具體的舉措方面。目前,市場上已經出現了一些針對AI安全的解決方案。例如,奇安信集團推出的國內首個AI安全整體應對方案,涵蓋了AI安全框架、解決方案、評估服務和檢測工具等多個方面。
同時,大模型廠商也推出了全棧式的安全防護體系。如阿里雲的模型全生命週期安全防護體系和百度智能雲的全棧式服務能力等。這些解決方案不僅涵蓋了數據的採集、模型設計、訓練、評測、部署和使用等各個階段,還提供了豐富的安全產品和技術支持,幫助企業構建全方位的數據安全防護體系。
未來,數據安全這個命題,隨着越來越多的AI應用落地,其定義或將更加廣泛,面臨的挑戰亦越來越大。只有時刻保持警惕,不斷創新,加強合作,才能共築起一道堅不可摧的數據安全長城。