與AI聊天機器人分享個人信息安全嗎?須知事項 - 《華爾街日報》
Heidi Mitchell
想象一下,你將與放射科醫生的會議筆記粘貼到一個人工智能聊天機器人中,並要求它進行總結。後來,一個陌生人向同一個生成式AI聊天機器人詢問關於癌症的擔憂,而你們本應私密的對話內容作為回應的一部分被泄露給了該用户。
隨着生成式AI聊天機器人的普及,人們對這種潛在隱私泄露的擔憂日益加劇。這裏的關鍵問題是:與這些聊天機器人分享個人信息安全嗎?
簡而言之,你分享的信息總是存在以某種方式暴露的風險。但有一些方法可以降低這種風險。
要理解這些擔憂,有必要了解這些工具是如何被“訓練”的——它們最初是如何從互聯網和其他來源獲取大量信息,並能夠繼續從與用户的互動中收集信息,從而使它們變得更智能、更準確。
因此,當你向AI聊天機器人提問時,它的回答部分基於那些早於互聯網數據使用和隱私規則出現之前的材料。即使是更近期的來源材料,也充斥着散落在網絡上的個人信息。
這為私人信息被各種生成式AI聊天機器人的訓練材料吸收提供了大量機會——這些信息可能無意間出現在他人與聊天機器人的對話中,或被惡意行為者通過巧妙的提示或問題故意竊取或泄露。
卡內基梅隆大學布洛克技術與社會中心學術主任、海因茨信息系統與公共政策學院院長拉瑪亞·克里希南表示:“我們知道這些模型是在海量信息基礎上訓練的,這些信息可能且很可能包含敏感數據。”
克里希南指出,一個主要問題是缺乏獨立審計來驗證訓練數據來源。“大量證據來自學術界突破防護欄的研究,證明訓練數據中存在私人信息,”他説,“我確實瞭解某些攻擊案例,證實訓練模型中包含敏感數據。”
這位教授補充道,更重要的是,AI工具部署後通常會持續通過用户交互進行訓練,吸收並存儲用户輸入的所有信息。
專家表示,更甚者,某些情況下企業員工會審閲用户與聊天機器人的對話。這種做法部分是為了監測和防止不當行為,協助模型準確性與質量控制,同時也用於篩選供AI訓練使用的對話樣本。
現實案例
隱私擔憂並非空穴來風。已有報道顯示機密信息被意外泄露的案例。去年三月,OpenAI披露了一個漏洞,導致部分ChatGPT用户能查看其他用户與該工具的聊天標題,可能還短暫暴露了部分用户的支付信息,包括電子郵箱、信用卡號末四位及有效期。該漏洞源於訓練工具中使用的某開源軟件(即可供任何人免費查看、修改和部署的代碼)存在缺陷。
聊天機器人同樣容易遭受蓄意攻擊。例如,一些研究人員最近發現可以輕易繞過防護措施,挖掘出大型語言模型收集的個人信息,包括電子郵件。
克里希南指出:“ChatGPT的漏洞‘很快得到了修補’,但關鍵在於,這些AI軟件系統非常複雜,且構建在其他軟件組件之上,其中一些是開源的,它們包含可被利用的漏洞。”聖克拉拉大學馬庫拉應用倫理學中心互聯網倫理項目主任伊琳娜·雷庫表示,大型語言模型本身也存在類似的固有漏洞。
隱私問題嚴重到讓多家公司限制或禁止員工在工作中使用AI聊天機器人。“如果大公司都擔心自己的隱私,如果他們不確定自己的數據會發生什麼,那説明在分享任何個人信息時我們都應該謹慎,”雷庫説。
雷庫表示,對於已經存在於聊天機器人模型中的信息,我們無能為力,“但為什麼要冒險通過向模型輸入新的類似數據,讓你的私人信息泄露出去呢?”
最好不要這樣做
聊天機器人開發者已採取一些措施來保護用户隱私。例如,用户可以通過主頁上非常顯眼的開關,關閉ChatGPT無限期保存聊天記錄的功能。這並不能完全防止黑客攻擊——該網站表示,選擇此選項的用户的新聊天記錄仍會保存30天——但它明確表示這些聊天不會用於訓練模型。
Bard要求用户先登錄Bard.Google.com,然後按照幾個步驟默認刪除所有聊天記錄。微軟發言人表示,必應用户可以打開聊天機器人網頁,在頁面右側查看搜索歷史,然後刪除他們想要移除的單個聊天記錄。微軟發言人表示:“但目前用户無法禁用聊天曆史記錄。”
專家表示,消費者保護自己的最佳方式是避免與生成式AI工具分享個人信息,並在與任何AI對話時留意某些危險信號。
一些危險信號包括使用沒有隱私聲明的聊天機器人。“這表明必要的治理機制還不夠成熟,”律師事務所Mayer Brown的隱私和網絡安全合夥人多米尼克·謝爾頓·萊比錫説道。
另一個危險信號是聊天機器人要求提供超出合理範圍的個人信息。“有時為了登錄賬户,你需要分享賬號、密碼或回答一些個人問題,這並不罕見,”謝爾頓·萊比錫説,“但如果被要求提供社保號碼,那就另當別論了。千萬別給。”她還表示,與一個你從未聽説過的聊天機器人討論任何個人事務都是不明智的,因為整個系統可能由不良行為者操控。
聖克拉拉大學的拉伊庫警告不要將具體的健康狀況或財務信息輸入通用聊天機器人,因為大多數聊天機器人公司在服務條款中明確表示,員工可能會查看部分對話內容。“當生成式AI的回覆可能不準確時,冒着信息泄露的風險值得嗎?很可能不值得,”拉伊庫説道。
卡內基梅隆大學的克里希南提到黑客風險,提醒人們在使用谷歌Bard的一項功能時要三思,該功能允許工具讀取並處理你所有的電子郵件,以便它理解你的寫作風格和語氣。
最終,你輸入聊天機器人的內容需要進行風險與回報的權衡,每個人的舒適度會有所不同。然而,專家表示,你至少應該仔細檢查聊天機器人的服務條款和隱私政策,以瞭解你的數據將如何被使用。
“幸運的是,我們現在並不處於一個末日般的聊天機器人環境中,”謝爾頓·萊比錫説。“聲譽良好的生成式AI公司正在採取措施保護用户。”儘管如此,她表示,在與聊天機器人分享敏感信息時,始終要保持警惕。
海蒂·米切爾是芝加哥和倫敦的作家。可以通過[email protected]聯繫到她。