“計算機安全教母”宋曉冬:給AI繫上安全帶,能促進而非阻礙AI發展 | 有客到 | 聯合早報
zaobao
在汽車工業發展的早期,安全帶的普及曾一度被視為掣肘。但今天我們毫無爭議地認識到,它提升了駕駛信心、推動了整體安全技術的進步。那麼在人工智能迅猛發展的今天,我們又該如何“繫好安全帶”?
在新加坡亞洲科技會展上,人工智能安全專家宋曉冬用這一生動比喻,説明AI安全監管的重要性。她指出,AI能力越強,可能帶來的風險也越大。幻覺、偏見、隱私泄露、對抗性攻擊等潛在隱患,需要我們正視,也需要科學的方法去識別和控制。
宋曉冬有着“計算機安全教母”的美譽,是美國加州大學伯克利分校負責任去中心化智能中心聯合負責人,也是這個領域屈指可數的頂尖華裔科學家。接受聯合早報《有客到》欄目專訪時她談到,團隊最近通過觀測人工神經網絡的內部“激活”過程,正在嘗試像顯微鏡研究細菌一樣研究AI模型的“神經元”,並探索如何更好地理解甚至控制這些複雜系統的行為。與人腦神經科學相似的方法,正成為AI可解釋性和安全研究的重要方向。
她的團隊早在2017年就以一個貼紙誤導AI識別停車標誌的實驗,引發業界對“對抗性攻擊”的廣泛關注。這種攻擊方式並非科幻,而是真實可操作的風險,而在防禦手段上,迄今為止學術界仍面臨巨大挑戰。
另一個值得警惕的問題是數據隱私。宋曉冬説,AI模型在訓練中可能“記住”原始數據,攻擊者甚至能從中提取用户隱私信息。隨着AI逐漸成為個人助理,甚至決策的參與者,如何確保其在幫助個人的同時不泄露敏感信息,將變得尤為關鍵。
延伸閲讀
[“計算機安全教母”宋曉冬:AI安全是創新“安全帶”
](https://www.bdggg.com/2025/zaobao/news_2025_05_29_835652)
宋曉冬除了是一名研究者,還同時兼有創業者、企業家的身份。她創建了綠洲平台(Oasis Labs),旨在打造一個集安全性、高擴展性和隱私保護於一體、可以支持真實應用的區塊鏈智能合約平台。同時提出“數據金庫”的概念,設想未來每個人都能像擁有財產權一樣掌握自己的數據,並從中受益。這不僅是隱私保護的嘗試,更是一種技術賦權的主張。她認為,AI的發展如果能夠去中心化,更關注個體利益,而非僅服務於平台與大公司,將為普通人帶來前所未有的能力釋放——比如協助寫作、搭建網站、做出決策等。
不過,技術進步也意味着全球協作的必要。宋曉冬參與發起和聯署了“基於科學與證據的AI政策倡議”,呼籲制定AI監管規則時應摒棄意識形態,以科學與證據為基礎。她強調,AI風險無國界,AI安全更需國際合作。新加坡最近發佈的《AI安全共識報告》,正是各國專家齊聚、共識逐步形成的體現。
當被問及是否對AI的未來樂觀時,宋曉冬用“理性樂觀主義者”來形容自己。她説,儘管AI能力在飛速進步,而安全研究進展相對緩慢,但人類社會在歷史中展現出的韌性與創造力,值得我們繼續相信。只要投入足夠資源、建立開放合作機制,我們仍有機會讓AI真正造福社會,實現負責任的創新。