三星禁止員工使用ChatGPT、Google Bard和其他生成式人工智能工具,此前有泄露事件發生 - 彭博報道
Mark Gurman
三星電子公司 發現員工上傳了敏感代碼到該平台後,禁止員工使用像ChatGPT這樣的熱門生成式AI工具,這給工作場所中這種技術的傳播帶來了挫折。
總部位於韓國水原的公司通過彭博社查閲的備忘錄於週一通知了其最大部門的員工有關新政策。根據文件,公司擔心傳輸到這些人工智能平台(包括Google Bard和Bing)的數據存儲在外部服務器上,使得難以檢索和刪除,並可能被披露給其他用户。
公司上個月進行了關於內部使用AI工具的調查,並表示65%的受訪者認為這些服務存在安全風險。根據備忘錄,今年4月早些時候,三星工程師意外地通過將代碼上傳到ChatGPT泄露了內部源代碼。目前尚不清楚信息的具體內容。
一位三星代表證實,上週發送了一份禁止使用生成式AI服務的備忘錄。
“對於像ChatGPT這樣的生成式AI平台的興趣在內部和外部都在增長,”三星告訴員工。“儘管這種興趣集中在這些平台的實用性和效率上,但人們也越來越擔心生成式AI帶來的安全風險。”
三星只是最新一家對這項技術表示擔憂的大公司。今年2月,在OpenAI的聊天機器人服務引起了人們對這項技術的濃厚興趣後僅僅幾個月,包括一些華爾街銀行在內的一些華爾街銀行,如JPMorgan Chase & Co.、美國銀行公司和花旗集團要麼禁止要麼限制了其使用。意大利也因隱私擔憂禁止使用ChatGPT,儘管最近幾天已經改變了立場。
閲讀更多: IBM首席執行官預計未來五年內30%的後勤工作將被人工智能取代
新的三星規定禁止在公司擁有的計算機、平板電腦和手機以及內部網絡上使用生成式人工智能系統。這些規定不影響公司銷售給消費者的設備,比如安卓智能手機和Windows筆記本電腦。
三星要求在個人設備上使用ChatGPT和其他工具的員工不要提交任何可能泄露其知識產權的公司相關信息或個人數據。它警告稱,違反新政策可能導致被解僱。
“我們要求您嚴格遵守我們的安全準則,否則可能導致公司信息泄露或損害,進而導致紀律處分,甚至解僱。” 三星在備忘錄中表示。
與此同時,該公司正在開發自己的內部人工智能工具,用於翻譯和總結文件以及軟件開發。它還正在研究如何阻止敏感公司信息上傳到外部服務。上個月,ChatGPT添加了一個“隱身”模式,允許用户阻止他們的聊天被用於人工智能模型訓練。
“總部正在審查安全措施,為員工提高生產力和效率而安全使用生成式人工智能創造一個安全環境。”備忘錄中説道。“然而,在這些措施準備好之前,我們暫時限制生成式人工智能的使用。”
解釋:那些令人驚歎但存在缺陷的新聊天機器人背後的技術:QuickTake