OpenAI積極回應ChatGPT帶來的安全隱患_風聞
根新未来-04-09 09:01
文/觀察未來科技
ChatGPT,作為新型AI聊天機器人的代表,從2022年11月30日誕生的那一天起,就憑藉其依託於數字的“超能力”——可根據用户的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,並回答各類疑問,在互聯網上掀起智能新革命風暴的同時,卻也激起了安全隱私風險的千重浪。
ChatGPT受世界多國“狙擊”
在剛剛過去的3月份,在意大利的ChatGPT平台出現了用户對話數據和付款服務支付信息丟失情況,該平台沒有就收集處理用户信息進行告知,且缺乏大量收集和存儲個人信息的法律依據;而且,根據OpenAI的條款聲稱該服務面對13歲以上的用户,但平台沒有使用任何過濾機制來驗證用户的年齡。
就如此情況,意大利個人數據保護局(GPDP)宣佈:從3月31日起,禁止在意大利使用聊天機器人ChatGPT,並限制開發這一平台的OpenAI公司處理意大利用户信息;同時針對OpenAI及 ChatGPT 涉嫌違反隱私規則着手立案調查。
幾乎同時,韓國三星半導體部門發生了3起因員工在ChatGPT上輸入設備信息及重要會議摘要,導致公司機密外泄風險陡增的事件。據韓國《國民日報》報道,包括三星、SK海力士、韓國浦項制鐵公司在內的多家韓企正在採取限制使用ChatGPT的措施,嚴防員工泄密。
而在GPDP實施禁令並展開調查後,德國監管機構便一直跟 GPDP保持着聯繫與溝通,並於4月3日表示:出於對個人信息安全的擔憂,德國可能會效仿意大利禁止ChatGPT。
4月4日,加拿大聯邦隱私監管機構宣佈:對聊天機器人ChatGPT的開發公司OpenAI展開調查,因為該公司涉嫌“未經同意收集、使用和披露個人信息”。
4月4日,英國《衞報》稱:英國信息專員辦公室已經向科技公司發出警告,不要使用個人信息來開發聊天機器人。該機構的技術和創新總監阿爾蒙德表示,類似ChatGPT的生成式人工智能“如果被不負責任地使用,有可能對數據隱私構成風險”。
日本經濟新聞網報道,出於對信息泄露的擔憂,包括軟銀、日立、富士通、三菱日聯銀行和三井住友銀行在內的日本公司已開始限制在業務運營中使用ChatGPT等交互式人工智能服務。
英國路透社報道,愛爾蘭和法國的個人數據監管機構已經和意大利的同行取得聯繫,以瞭解更多有關該禁令的依據。西班牙的數據監管機構也表示,雖然暫未收到任何有關ChatGPT的投訴,但不排除未來對該軟件展開調查的可能性。
除此之外,非營利性科技倫理組織AI和數字政策中心(CAIDP)也投訴ChatGPT對隱私和公共安全構成了風險,要求美國聯邦貿易委員會(FTC)對OpenAI展開調查,並呼籲官員們審查並監管OpenAI的生成式AI技術,尤其是其新一代大型語言模型GPT-4。

OpenAI積極響應安全危機
OpenAI是由特斯拉CEO埃隆•馬斯克(Elon Musk)、美國創業孵化器Y Combinator總裁阿爾特曼、全球在線支付平台PayPal聯合創始人彼得·蒂爾等硅谷科技大亨於2015年聯合創立的,主攻AI技術應用領域,憑藉ChatGPT和圖像生成器Dall-E 2等人工智能程序而聞名。
在GPDP就ChatGPT 涉嫌違反數據收集規則展開調查後,OpenAI主動與其進行聯繫,下線了ChatGPT在該國的相關服務,並表示願意進行合作,以解決其對數據安全的擔憂。OpenAI 相信公司符合個人數據保護法律,但還是會加強個人數據使用的透明度,增強數據主體權利行使機制以及對兒童的保護措施。
在4月6日凌晨,OpenAI發表博客稱:“我們認為,強大的人工智能系統應該接受嚴格的安全評估。需要有監管來確保這種做法被採納,我們積極與政府接觸,探討這種監管可能採取的最佳形式。”OpenAI還稱,解決人工智能安全問題的一個切實可行的方法是投入更多時間和資源來研究有效的緩解和校準技術,並在現實世界的濫用情況下測試它們。
在以ChatGPT為代表的新一輪人工智能浪潮中,越來越多的科技企業將面臨着技術發展與數據安全、隱私保護之間的平衡難題。而從OpenAI的聲明中,我們不難看出一種謹慎的態度,也相信該公司會採取力所能及的方法來降低AI帶來的風險,但還是有兩大固有問題是難心解決的:其一,是用户濫用問題,各國用户濫用技術的方法層出不盡,科技公司包括OpenAI在內,是無法全面預防的,所以也只能採用事後糾正的做法;其二,是訓練數據的缺陷問題,ChatGPT基於公開數據訓練,但公開數據質量參差不齊,所以,即便OpenAI努力做到最好,也可能永遠無法實現絕對的安全。