ChatGPT、必應和巴德不會產生幻覺它們是虛構的 - 彭博社
Rachel Metz
OpenAI 網站 Dall-E。
攝影師:Gabby Jones/Bloomberg 關於人工智能產生幻覺的討論太多了,讓我感覺自己也在幻覺中。但首先…
通過填寫這份調查問卷來幫助我們改進這份通訊
今日必讀:
• 中國對美光進行芯片審查• 推特用户拒絕為藍勾標誌付費• 意大利監管機構對 OpenAI 發起調查
詞語選擇
不知何故,一旦聊天機器人出錯,人們默認解釋為人工智能模型“產生幻覺”。
這是一個易於理解的比喻。我們人類有時也會產生幻覺:我們可能看到、聽到、感覺、聞到或嚐到並不存在的事物。這可能由各種原因引起(疾病、疲勞、藥物)。
整個行業的公司將這一概念應用於新一批功能強大但仍存在缺陷的聊天機器人。在 OpenAI 最新的人工智能模型 GPT-4 的產品頁面中,幻覺被列為一種限制。谷歌在三月份開放其巴德聊天機器人的訪問權限,據報道在最近的一次採訪中提到了人工智能容易產生幻覺。
即使對這項技術持懷疑態度的人也開始接受AI幻覺的概念。上週發出呼籲暫停訓練強大AI模型六個月的請願書上籤署的一對人士提到了這一點,以及對AI新興力量的擔憂。Meta Platforms Inc.的首席科學家Yann LeCun在Twitter上多次談到了這個問題。
賦予聊天機器人產生幻覺的能力——即使只是在我們自己的頭腦中——是有問題的。這是胡説八道。人們會產生幻覺。也許一些動物會。計算機不會。它們使用數學來憑空捏造事物。
人類有一種將機器擬人化的傾向。(我有一個名叫Randy的機器人吸塵器。)但是,雖然ChatGPT及其同類可以產生令人信服的文本,但它們實際上並不理解自己在説什麼。
在這種情況下,“幻覺”這個術語掩蓋了實際發生的事情。它還有助於讓系統的創建者免於對其產品負責。(哦,這不是我們的錯,它只是在幻覺!)
説一個語言模型在幻覺,使其聽起來好像它有自己的思想,有時會偏離軌道,Hugging Face的首席倫理學家Giada Pistilli説。
“語言模型不會做夢,不會幻覺,也不會服用致幻藥,”她在一封電子郵件中寫道。“有趣的是,值得注意的是,‘幻覺’這個詞隱藏了一些近乎神秘的東西,就像沙漠中的幻影,而且並不一定有‘錯誤’可能帶來的負面含義。”
隨着越來越多的人訪問這些聊天機器人,提及它們時使用的語言很重要。關於它們如何運作的討論不再僅限於學術界或研究實驗室的計算機科學家。它已經滲透到日常生活中,影響我們對這些人工智能系統的表現期望以及它們的能力。
科技公司要對他們現在試圖解釋的問題負責。微軟公司,作為一家主要的OpenAI投資者,同時在必應中使用其技術,以及谷歌急於推出新的聊天機器人,而不顧傳播錯誤信息或仇恨言論的風險。
ChatGPT發佈後的幾天內就吸引了一百萬用户,人們已經與微軟的必應聊天機器人進行了超過1億次對話。事情進展得如此順利,以至於微軟甚至嘗試在必應的回答中投放廣告;下次你詢問它關於購買房屋或汽車的事情時,你可能會看到廣告。
但即使是發起當前聊天機器人熱潮的OpenAI似乎也認同幻覺不是一個很好的人工智能隱喻。在其技術論文的一個腳註中(PDF)寫道,“我們使用‘幻覺’這個術語,儘管我們認識到這種表述可能暗示擬人化,而這反過來可能導致模型學習方式的傷害或不正確的心智模型。” 即便如此,在那篇論文中,這個詞的變體仍然出現了35次。
重要新聞
從微軟到Meta等科技巨頭 裁員的同時也在削減房地產,導致美國主要城市出現大量空置辦公室,房東們陷入困境。
充分充電
微軟正在努力 讓其價值10億美元的氣候基金充分發揮作用。
蘋果贏得了一場法律挑戰 反對英國反壟斷監管機構對其在手機市場上的主導地位由於程序技術性原因。
Lemon8,一個新應用 類似於Instagram和Pinterest的混合體,在美國受到歡迎因其所有者而備受關注:總部位於北京的字節跳動,也是TikTok的所有者。
前Grubhub司機 只贏得了65美元,但一起為期八年的聯邦法院案件的和解可能具有深遠影響。
觀看: 華為首次在十多年來出現年度利潤下降後,該公司的美國首席安全官在Bloomberg Technology的電視採訪中談到了發生的事情。
彭博社更多內容
獲取彭博科技週刊,直接發送到您的收件箱:
- 網絡公告,報道黑客和網絡間諜的陰影世界
- 遊戲進行中,報道視頻遊戲業務
- 開機,提供蘋果獨家新聞、消費者科技新聞等
- 屏幕時間,近距離觀看好萊塢和硅谷的碰撞
- 聲音片段,報道播客、音樂行業和音頻趨勢