“計算機安全教母”宋曉冬:AI安全是為創新系上“安全帶” | 聯合早報
zaobao
人工智能(AI)技術近年發展迅速,關於AI安全的討論也層出不窮。人們對這項技術充滿憧憬,也抱有疑慮。在業界不乏有人擔憂,若重視AI安全,隨之而來的監管可能會拖累技術創新。
有“計算機安全教母”之稱的宋曉冬教授認為,對負責任的創新而言,AI安全和防護(AI safety and security)是關鍵的要素和支柱;就像開車時繫上“安全帶”,並不是讓你慢下來,而是為了幫助車子跑得更快。
在計算機系統和網絡安全研究領域知名的美國加州大學伯克利分校計算機系教授宋曉冬,星期三(5月28日)在新加坡亞洲科技會展(Asia Tech x SG)一場“爐邊對話”中,分享了她對於AI安全和治理的看法。
專注深度學習與安全 兼顧系統和隱私保護
宋曉冬教授的研究重點聚焦於深度學習和安全,涵蓋計算機系統和網絡中的安全和隱私問題,研究領域包括軟件安全、網絡安全和數據庫安全,以及機器學習與安全等。目前,她也是伯克利負責任去中心化智能中心(Berkeley Center for Responsible Decentralised Intelligence)的聯合負責人。
在這次分享中,她將AI安全比作創新的“安全帶”,和早前到訪新加坡的另一位知名AI學者李飛飛所作出的比喻,可謂不謀而合。
延伸閲讀
[楊莉明:人工智能仍在起跑 全球須協作規範運用
](https://www.bdggg.com/2025/zaobao/news_2025_05_29_835615)
[能説多語懂方言查健康 升級版AI模型貼心看護年長者
](https://www.bdggg.com/2025/zaobao/news_2025_05_29_835649)
兩個月前,人稱“AI教母”的斯坦福大學教授李飛飛在一場活動上分享説,汽車曾經也被認為不安全,但務實的解決方法不是關掉造車廠,而是用限速和安全帶等方式來監管。
宋曉冬和李飛飛都參與了近期多位AI學界知名學者共同發表的一項提案署名,名為“基於科學和證據的人工智能政策之路”(A Path for Science‑ and Evidence‑based AI Policy),旨在呼籲AI政策應以科學和證據為依據。
宋曉冬指出,目前人們對AI模型的運作方式和風險評估方法等內容的理解仍非常有限,社會和相關社羣在理解什麼才是制定AI政策的最佳方法時,也存在很大的分歧。因此,他們呼籲將AI政策的討論建立在科學與證據之上,用更系統而嚴謹的方法來看待AI風險。
AI模型風險理解有限 科學評估成政策制定關鍵
“我們目前的評估和制定以科學與證據為基礎的AI政策路徑,還處在起步階段。我們列出的關鍵事項之一是如何推進所謂‘評估科學’(the science of evaluation),因為目前我們所用的評估方式依然很零散,缺乏系統性……我們需要在這個方面取得進展。”
談及正加速發展AI技術的業界,她認為,許多公司在提升模型和AI系統能力上投入了大量資源,但用於AI安全問題的少之又少。
這類情況在過去的網絡安全領域也很常見,但公司也開始意識到,若一開始就考慮安全問題,長遠來看,系統維護和安全保障成本可能反而更低。宋曉冬希望,企業在AI安全方面也能吸取類似經驗。