OpenAI聊天機器人如此出色,甚至可以欺騙人類,即使它是錯誤的 - 彭博社
Dina Bass
自從OpenAI推出了ChatGPT,一個生成句子的聊天機器人,這些句子幾乎與實際由人類撰寫的散文相似,社交媒體上一直充斥着用户嘗試使用這項技術進行有趣、低風險的用途。人們要求這個機器人創建雞尾酒配方,創作歌詞,並編寫《格林納達的孤島》劇本,在這個劇本中,演員們應對新冠疫情。ChatGPT避免了一些過去聊天機器人的缺陷,比如種族主義或仇恨言論,對於這項技術的激動之情是可以感受到的。
ChatGPT擅長提供流暢、權威的答案,並能夠在一個連貫的線程中回答額外的相關問題,這證明了人工智能已經取得了多大的進步。但這也引發了一系列問題,關於讀者如何能夠區分機器人的內容和真實的人類撰寫的語言之間的區別。這是因為ChatGPT的文本可以達到某種程度的“真實感”,正如喜劇演員史蒂芬·科爾伯特曾經稱之為“真實性” — 即使事實並非如此,它看起來和感覺上卻是真實的。這個工具上週發佈。到週一,面向計算機程序員的問答網站Stack Overflow暫時禁止了由ChatGPT生成的答案,管理員表示他們看到了成千上萬這樣的帖子 — 而且它們經常包含不準確的信息,使其對網站造成“實質性的傷害”。即使答案是準確的,這個機器人生成的關於歷史或科學的材料也足夠引發關於它是否可以用來作弊考試、論文或工作申請的爭論。無論是否屬實,ChatGPT的答案都是人類言論的近似回聲,是真實事物的複製品,這加強了OpenAI可能必須想出一種方法來標記這樣的內容為軟件生成而非人類創作的論點。
普林斯頓大學計算機科學教授阿爾温德·納拉亞南(Arvind Narayanan)在發佈當天對聊天機器人進行了基本信息安全問題測試。他的結論:除非你已經知道正確答案,否則你無法判斷答案是否錯誤。
“我沒有看到任何證據表明ChatGPT如此具有説服力,以至於能夠説服專家,”他在一次採訪中説道。“對於非專家來説,他們可能會覺得ChatGPT非常可信和權威。”他還表示,對於那些要求背誦事實而非分析或批判性思維的老師來説,這也是一個問題。聊天機器人在第一部分表現得相當不錯,但通常在後者上表現不佳。
ChatGPT是OpenAI最新的語言人工智能技術,OpenAI是一家人工智能研究機構,成立於2015年,創始人包括埃隆·馬斯克(Elon Musk)、現任首席執行官和企業家薩姆·奧爾特曼(Sam Altman)以及首席科學家伊利亞·蘇茨克維爾(Ilya Sutskever)。馬斯克於2019年結束了他的參與,OpenAI現在得到微軟公司的大力資助。該公司專注於幾個版本的GPT,一種所謂的大型語言模型,它掃描互聯網上的大量內容,並用它來預測如何生成文本。ChatGPT是一個經過“訓練”來回答問題的迭代版本。
使用這個人工智能工具來寫一個基本的新聞故事展示了它的優勢以及潛在的缺點。要求寫一篇關於微軟季度收益的文章,這個機器人產生了一個可信的複製品,看起來像是關於2021年微軟財務業績的一篇文章。文章談到了收入和利潤的增長,歸功於強勁的雲計算軟件和視頻遊戲銷售。ChatGPT沒有出現會讓人懷疑它是機器人寫的的明顯錯誤。數字是錯誤的,但大致在範圍內。這個機器人通過添加一句來自微軟CEO薩蒂亞·納德拉(Satya Nadella)的虛假引語增強了其可信度,其中存在一個令人擔憂的問題。這條評論贊揚了微軟在疫情期間的出色執行,甚至這位微軟記者都不得不核實它是否真實。事實上,這完全是虛構的。正如微軟人工智能倫理副總裁莎拉·伯德(Sarah Bird)在採訪中在今年早些時候解釋的那樣,像GPT這樣的語言模型已經學會了人類經常用引語來支持論點的行為,因此軟件模仿了這種行為,但缺乏對倫理和歸因的人類理解。軟件會虛構引語,或者説話者,或者兩者都會虛構。
對ChatGPT的熱烈接待與最近另一個備受關注的語言模型展示形成鮮明對比 —— Meta Platforms Inc.的Galactica,該模型攝入了大量科學論文和教科書,並應該利用這些“學習”來輸出科學真相。用户發現這個機器人在科學術語中穿插着不準確和偏見,導致Meta、Facebook的母公司,停止了這個項目。“我不確定有人怎麼會認為那是個好主意,”Narayanan説。“在科學中,準確性就是全部。”
OpenAI明確表示,其聊天機器人不“能夠產生類似人類的言論”,根據服務上的免責聲明。“像ChatGPT這樣的語言模型被設計成模擬人類語言模式,並生成類似人類回應的回答,但它們沒有產生類似人類言論的能力。”
ChatGPT還被設計成避免一些更明顯的陷阱,並更好地考慮到可能出錯的可能性。該軟件僅在去年的數據上進行了訓練。例如,問及今年的中期選舉,該軟件會承認自己的侷限性。“很抱歉,但我是由OpenAI訓練的大型語言模型,沒有任何關於當前事件或最近選舉結果的信息,”它説。“我的訓練數據僅限於2021年,我沒有能力瀏覽互聯網或獲取任何更新的信息。我能幫你做些什麼嗎?”
攝影師:OpenAIOpenAI提供的示例顯示,ChatGPT拒絕回答有關欺凌或提供暴力內容的問題。它沒有回答我在2021年1月6日美國國會大廈暴動事件上提出的問題,有時承認自己犯了錯誤。OpenAI表示,他們發佈ChatGPT作為“研究預覽”,以便從實際使用中獲得反饋,這被視為制定安全系統的關鍵方式。
目前,它有一些嚴重錯誤。紐約大學榮譽退休教授Gary Marcus一直在Twitter上收集和分享示例,包括ChatGPT關於從舊金山騎自行車到毛伊島的建議。加州大學博士生Rong-Ching Chang讓這個機器人談論了天安門廣場抗議活動中的食人行為。這就是為什麼一些人工智能專家擔心,一些科技高管和用户將這項技術視為取代互聯網搜索的一種方式,尤其是因為ChatGPT沒有展示其工作過程或列出信息來源。
“如果你得到一個無法追溯的答案,無法問到‘這是從哪裏來的?代表了什麼觀點?這個信息的來源是什麼?’,那麼你將極易受到虛構的信息或者反映數據集中最糟糕偏見的影響,”華盛頓大學語言學教授、一篇今年早些時候發表的論文的作者Emily Bender説。該論文展示了語言人工智能聊天機器人提出的改進網絡搜索的擔憂。這篇論文主要是針對谷歌提出的想法。
“這種技術的殺手級應用是在你不需要任何真實信息的情況下。” Bender説。“沒有人可以根據它做出任何決定。”
這種軟件也可以用於發起“人造草根”運動 — 讓一個觀點看起來來自大量的草根評論者,但實際上是來自一個中央管理的操作。
隨着人工智能系統在模仿人類方面變得更加優秀,關於如何判斷某些內容 — 一張圖片,一篇文章 — 是否是根據少量人類指令創建的程序所生成的,以及誰有責任確保讀者或觀眾知道內容的來源,這類問題將會越來越多。2018年,當谷歌發佈了Duplex,一種模擬人類語音打電話給公司代表用户的人工智能時,由於有人抱怨它具有欺騙性,最終不得不標明這些電話來自機器人。
OpenAI表示他們已經探索了這個想法 — 例如,他們的DALL-E系統可以根據文本提示生成圖片,並在圖片上放置一個標記,説明這些圖片是由人工智能創建的 — 該公司正在繼續研究有關披露由其GPT等工具創建的文本來源的技術。OpenAI的政策還規定,分享這類內容的用户應清楚地指出這是由機器生成的。
“一般來説,當有一個工具可能被濫用但也有很多積極用途時,我們會把責任放在工具的使用者身上,”Narayanan説。“但這些都是非常強大的工具,生產它們的公司資源充足。因此,也許他們需要承擔一部分道德責任。”