為世界提供借鑑 我國宣佈三大AI安全治理計劃 | 聯合早報
zaobao
我國宣佈三項人工智能安全治理計劃,針對在不同語言、文化環境中使用AI的潛在風險,為新技術在全球的安全發展提供借鑑。
到法國巴黎參加人工智能行動峯會的數碼發展及新聞部長楊莉明,星期一(2月10日)在出席一個以政府企業合作為主題的專題討論會上,宣佈了這三項計劃。
它們分別是由AI Verify基金會和資訊通信媒體發展局聯合推出的全球AI安全保障試點項目;與日本聯合開展的大型語言模型在十種不同語言環境中的安全測試報告;以及由資媒局和Human Intelligence合作開展的AI安全“紅隊演練”(Red Teaming)挑戰評估報告。
楊莉明在發言中説:“AI正在重塑我們的世界,新加坡以此為契機,為AI安全和治理做出貢獻。我們致力於同全球的業界、學術界,和社會各界建立強有力的全球夥伴關係,讓AI成為讓新加坡和全世界受惠的公共產品。”
“紅隊演練”指通過模擬惡意攻擊,來發現AI系統中的潛在漏洞和弱點的行動。此次演練於去年11月至12月進行,涉及新加坡、中國、馬來西亞、印度尼西亞、日本、韓國、印度、泰國、越南九個國家的約350位專家,楊莉明稱之為全球首個跨文化多語種的此類演練。
延伸閲讀
[楊莉明:人工智能時代 合作勝過單打獨鬥
](https://www.bdggg.com/2025/zaobao/news_2025_02_11_738582)
[楊莉明:面對人工智能發展 員工須提升技能保持競爭力
](https://www.bdggg.com/2024/zaobao/news_2024_11_29_723320)
這項演練發現和歸納了AI在不同語言環境中的失實表達,其中,有關性別的偏見最為明顯,排在之後的是種族和宗教、地理及身份認證,以及社會經濟。
此次宣佈三項計劃中的全球AI安全保障試點項目,將匯聚來自世界的AI安全測試供應商和生成式人工智能公司,助力制定AI安全標準和治理框架。
楊莉明説:“通過試點項目,我們正為醫療保健、金融等不同行業的生成式人工智能應用,邁出建立行業標準的第一步。”
新加坡國立大學副教務長(教育創新)兼新加坡全國人工智能核心高級司長陳西文教授(Simon Chesterman,52歲),過去10多年間一直從事AI治理和數據安全等領域研究。他在接受《聯合早報》採訪時指出,國際上關於AI治理的討論往往侷限於歐盟、美國,或者中國,討論的內容也常常是隔靴搔癢的泛泛而談。新加坡獨闢蹊徑,致力於拓寬討論範圍,重視實際運作,正在迅速成為AI治理的重要世界成員。
他説:“你可以把AI大型語言模型看成是一個非常聰明但習慣酗酒的實習生:他有時令你刮目相看,但你卻信不過他。新加坡最近啓動的計劃,就是對症下藥,有利於提高他的可信度。”
總部設在德國和新加坡的AI安全保障測試公司Resaro,將參加全球AI安全試點項目。公司新加坡首席執行官秦秀靈在受訪時指出,試點項目讓我們能將AI保障解決方案拓展至更廣泛的市場和行業,以滿足企業日益增長的AI保障需求。
她説:“通過參與試點項目,我們希望加速 AI 的應用,為企業提供關鍵的技術證據,評估AI應用的性能、安全性和防護能力,確保它們能夠自信應對AI發展趨勢。”