近九成本地人工作中使用AI 專家:會影響公司數據安全 | 聯合早報
zaobao
88%的本地人在工作上會使用人工智能(AI)工具,當中有八成會把個人使用的AI工具帶入工作,專家指出,這種行為會影響企業的數據安全。
這是微軟和領英最近聯合公佈的2024工作趨勢指數報告中的一項發現,該報告的相關調查於今年2月至3月在美國、中國、新加坡等31個地區進行,每個地區有1000名受訪者完成了20分鐘的網絡問卷。
在新加坡,88%受訪者説在工作中使用了人工智能工具。他們當中,84%會在工作中使用ChatGPT等個人AI工具,超過全球平均的78%。
微軟亞洲總裁馬紮裏(Ahmed Mazhari)在對報告結果評價時指出:“生成式AI工具在工作場所中的使用率增長迅速,員工為了提升工作效率,往往會採用各種容易上手的新型工具,他們也並不會因為僱主的種種政策而停止使用個人AI工具。”
企業機密泄漏至服務平台 或被服務商利用及用作訓練數據
德國軟件公司思愛普(SAP)在新加坡的AI實驗室董事經理薩哈(Manik Saha),在接受《聯合早報》採訪時指出,倘若缺乏有效的安全措施,員工在工作中使用個人AI工具,會不可避免地將企業內部保密資料泄漏到AI服務平台,並可能被服務商利用。
延伸閲讀
[調查:逾九成本地員工認為生成式人工智能助提高生產力
](https://www.bdggg.com/2023/zaobao/news_2023_09_23_635023)
[調查:逾八成企業領袖 在公司運作採用一定程度生成式AI
](https://www.bdggg.com/2024/zaobao/news_2024_05_01_679472)
“當員工們將這些數據資料輸入AI服務工具時,他們可能不會意識到數據將被送到什麼地方進行處理,當然也不知道誰會看到。”
南洋理工大學計算機與數據科學學院博士生劉藝,曾參與研究多款人工智能聊天機器人存在的漏洞。他在受訪時説:“如果員工用ChatGPT潤色還未發佈的財報,那麼財報中的敏感信息就有可能會被用作大語言模型(LLM)的訓練數據。下次別的用户問到這個問題,就有可能獲得相應的機密信息。”
LLM是生成式人工智能技術的重要基礎模型,它經過大量數據訓練,能夠理解和生成自然語言和其他類型的內容,以執行各種任務。
劉藝解釋,在ChatGPT開放給使用者的過程中,會收集與使用交互數據。這些數據會被LLM“記住”並用來訓練。當別的用户問到相關問題的時候,機器會把記住的消息回覆出來,一些企業還因為資料泄露而禁止員工使用AI工具。
據彭博社去年5月報道,三星(Samsung Electronics)在發現員工將公司敏感內部代碼輸入到ChatGPT後,便禁止員工使用ChatGPT等AI工具。
新加坡國立大學文學暨社會科學院哲學系講師沈耀發,建議僱主通過有效溝通,讓員工們更好地理解將公司資料上傳到個人AI工具上的潛在危險。
“一些員工並不明白在AI工具上泄漏公司數據的嚴重後果,另一些儘管知道,但由於找不到更好的AI平台解決問題,所以仍然會那樣做。”