百度馬傑:網絡安全人的責任在於“跑”到威脅之前
【環球網科技綜合報道】“AI時代我們不僅需要面對來自傳統安全領域頑疾的集中爆發,還需積極應對AI本身出現的安全性問題。”近日,在“天府杯”2020國際網絡安全大賽暨2020天府國際網絡安全高峯論壇上,百度副總裁馬傑表示,網絡安全人的責任在於,通過長期的研究與實踐,能夠跑到這些威脅造成重大危害之前。

據報道,在今年9月舉行的百度世界大會上,由Security、Safety和Privacy出發,馬傑首次對外揭示了百度在AI安全領域探索與實踐的三大全新維度。而它們也分別指向了強對抗環境下的安全威脅、非對抗條件下自然環境所產生的真實威脅及數據安全與隱私保護三大AI安全研究方向,並圍繞算力、算法和數據,覆蓋雲、管、端等各個階段。對於當前的AI安全研究來説,其不僅將為AI模型魯棒性、AI模型保護及數據採集、處理、流通和可信計算等領域的安全技術應用提供深具前瞻性的思考角度,也將為行業企業開發更具專業性的AI安全解決方案帶來方向性的規劃指引。
事實上,以AI安全三大維度為基礎,百度的AI安全能力已經投入到了包括AI模型魯棒性體系化評估、AI模型安全加固、全網惡意網頁監測、內容安全生態治理及全數據生命週期安全防護在內的一系列“實戰”之中。而作為百度大腦的核心架構組成,上述AI安全能力也已完成了對百度整個AI技術研發流程的全面覆蓋,併為百度智能雲構建智能一體化的雲上安全體系提供支撐。
會上,百度安全部產品負責人韓祖利介紹了百度在數據安全與隱私保護方面的實踐——以隱私合規檢測、差分隱私、AI自動脱敏、聯邦計算、可信計算等技術為代表,百度將AI安全能力貫穿於採集、處理、流通、計算等整個數據生命週期,在更好地保護企業機密和個人隱私的同時,也為百億級大規模數據的安全聯合計算創造了可能。進一步釋放數據價值,擴大AI時代大規模數據協作的信任邊界。
而在保障數據安全的基礎之上,軟硬一體化趨勢下AI系統的安全問題同樣不可忽視。以分佈式智能系統的安全性為核心,楊珉教授在演講中探討了開放網絡中分佈式學習系統內的“拜占庭攻防”問題,並通過GAA、即基於梯度聚合代理的魯棒分佈式學習,強化學習調整評估策略,為有效防禦這類攻擊提供了應對方案。
最後,百度方面表示,未來將繼續攜手各界合作伙伴,以開放的代碼和開放的技術推動AI安全開放生態的建設。