《華爾街日報》:領英測試生成式AI功能,用於處理員工及供應商提出的網絡安全問題
Catherine Stupp
領英發現,員工通過聊天機器人獲取問題回覆的響應時間約為5秒或更短,而人工客服響應則需要約15分鐘。圖片來源:Justin Sullivan/Getty Images領英正在測試生成式人工智能如何幫助員工和外部供應商在幾秒內獲取網絡安全政策答案,此舉有望縮短商業交易或實施工具決策的等待時間。
這家微軟旗下的職業社交平台開發了一款聊天機器人,專門解答員工關於網絡安全的疑問。領英安全團隊今年耗時約四個月,基於OpenAI大語言模型構建了該聊天機器人的初版,近期開始內部實驗。公司首席信息安全官Geoff Belknap表示,領英正與供應商測試類似工具。
據公司發言人透露,聊天機器人對員工問題的平均響應時間約為5秒以內,而人工協助需15分鐘左右。初期測試顯示聊天機器人準確率約達90%。
Belknap指出,這款新工具通過加速網絡安全問答流程,間接助力市場營銷、銷售及產品管理等其他團隊。
“安全必須成為業務差異化因素,安全必須成為你業務增長戰略的一部分,”他表示。貝爾克納普稱,他正在探索生成式AI如何能以其他方式幫助其網絡安全團隊保護公司抵禦黑客攻擊,例如通過檢測惡意軟件。
自去年生成式AI出現以來,其他大公司的網絡安全負責人一直在嘗試使用它。玩具製造商美泰正在試驗利用生成式AI幫助網絡安全員工完成解析大型數據集等繁瑣任務。但一些公司因安全風險已禁止或限制員工使用生成式AI。三星在4月份員工向該平台泄露敏感信息後,暫時禁止員工使用OpenAI的ChatGPT。
卡內基梅隆大學數字媒體與營銷教授阿里·萊特曼表示,那些嘗試生成式AI的網絡安全負責人需要加倍努力,確保員工審查所有結果,並提供有關風險的培訓。
“首席信息安全官們需要保持警惕,”他説。
貝爾克納普稱,網絡安全和技術團隊以外的LinkedIn員工有時難以理解公司安全政策允許的內容。他表示,聊天機器人使員工更不可能跳過必需的安全步驟,因為它加快了流程。“我們的內部客户非常喜歡通過這種方式快速、簡單地回答問題,因為它限制了你現在必須與專家會面討論的事項數量,”他説。
據公司發言人透露,當聊天機器人的最終版本發佈時,LinkedIn計劃追蹤其與員工的互動中有多少比例幾乎或完全不需要人工參與。
約十幾名LinkedIn網絡安全員工負責解讀內部政策,並確保其他部門的同事正確執行。Belknap表示,該聊天機器人有助於確保員工獲得一致的查詢答覆。
LinkedIn使用類似的人工智能工具幫助供應商和商業夥伴更快、更一致地獲取安全信息。通常,合規專家需要完成冗長的問卷後,公司才會同意合作。Belknap説:“如果我們給出的答案不一致或不完整,可能會導致交易延遲數週或數月,甚至可能導致交易失敗。”
Belknap表示,生成式人工智能可以減輕員工壓力,幫助處理重複性、瑣碎的任務,讓員工騰出手來做更具挑戰性的工作。但目前,員工需要監督其運作,確保它不會產生諸如提供錯誤信息等問題。
“風險仍然很高,”他説,“我不希望我的人工智能在與客户交談時給出種族主義或錯誤的答案。”
聯繫Catherine Stupp,郵箱:[email protected]
本文發表於2023年10月26日的印刷版,標題為《LinkedIn測試人工智能處理安全問題》。