強調透明與安全 我國將推出生成式AI開發指南 | 聯合早報
zaobao
為在人工智能時代更好地保障個人數據安全,也讓使用者能更安心使用AI產品,我國預計明年初推出針對生成式人工智能開發者的安全指南。
數碼發展及新聞部長兼內政部第二部長楊莉明星期一(7月15日)在個人資料保護周研討會開幕儀式上致辭時,宣佈這個消息。
她説,這份針對生成式人工智能(Generative AI)框架和應用開發者的安全指南,旨在將數據的透明度和安全性測試定為AI開發的優先基準和基本要求。
這份指南會建議,開發者和部署者應對使用者更透明,包括提供關於生成式AI工作原理的信息,例如使用哪些數據、測試與評估的結果,以及可能還存在的風險和侷限。
“這有點像開架藥品盒子裏的説明書,告訴你這個藥該怎麼用、可能有什麼副作用。這種程度的透明度,對於使用生成式AI搭建的AI模型是必要的。這是我們的建議。”
延伸閲讀
[保護人工智能系統技術指南 網安局本月展開公眾諮詢
](https://www.bdggg.com/2024/zaobao/news_2024_07_04_692422)
[楊莉明:政府下來須研究如何應對濫用“深偽”視頻
](https://www.bdggg.com/2024/zaobao/news_2024_07_10_693628)
楊莉明指出,AI的開發和測試使用了大量數據,如果不降低與數據安全相關的風險,企業和用户可能難以信任AI支持的產品和服務。若沒有信任作為基礎,對AI發展的支持可能逐漸減弱,甚至成為阻力,最終讓發展停滯。
她説:“新加坡會以主動、保護和務實的方式應對這些挑戰。”
由於AI領域發展迅速,我國早在2019年便推出人工智能監管模式框架(Model AI Governance Framework),2022年推出了全球首個人工智能治理測試框架和工具箱AI Verify。此次宣佈的安全指南將是AI Verify的一部分,預計在明年初推出。
加強AI領域個人信息保護
除了安全指南,楊莉明也宣佈,當局將進一步支持在AI領域使用隱私增強科技(Privacy Enhancing Technologies),包括通過資訊通信媒體發展局監管沙盒,支持與生成式AI數據使用相關的項目,以及推出針對合成數據(synthetic data)生產的建議指南。
針對亞細安的數據匿名化指南(ASEAN Guide on Data Anonymisation)預計也將在明年初發布,以推動區域數據監管和互聯,併為亞細安的相關業者提供重要的資源。
每年舉辦的個人資料保護周研討會為亞洲監管機構、政策制定者、行業領導者和國際智囊團等,提供了探討數據使用與合作的平台。今年研討會的主題是“在信任中創新,以數據推動改變”,於7月15日至18日在濱海灣金沙舉行,
在其中一場關於AI發展與數據保護的討論會上,資媒局助理局長黃慧雯指出,由於使用的技術和構建、部署的特殊性,生成式AI的監管是個複雜的課題。
她舉例,其中一個關鍵點是,在整個流程中,每一個人需要或可以獲得的信息有哪些,又必須承擔哪些責任。當局希望能與業界合作,在安全指南中釐清這樣的透明度和責任劃分。
ChatGPT開發公司OpenAI的副總法律顧問兼隱私法律主管傑西卡(Jessica Gan Lee)説,她相信公司、監管部門和廣泛社羣都應該溝通與合作,才能取得最佳效果,保障數據安全。