求助!我的政治信仰被聊天機器人改變了!——《華爾街日報》
Christopher Mims
當我們要求ChatGPT或其他AI助手起草備忘錄、郵件或演示文稿時,我們以為這些人工智能只是在執行指令。但越來越多的研究表明,它們還能在我們毫無察覺的情況下改變我們的思維方式。
一項由全球多國研究人員開展的最新研究發現:當受試者被要求借助AI撰寫文章時,AI會根據算法偏見暗中引導他們支持或反對某種觀點。這種寫作練習還會顯著影響受試者事後對該議題的看法。
“你可能根本意識不到自己正被影響,”康奈爾大學信息科學系教授、該論文的資深作者莫爾·納阿曼表示。他將這種現象稱為“潛在説服”。
這些研究揭示了一個令人擔憂的前景:AI在提升我們工作效率的同時,也可能以微妙且難以預料的方式改變我們的觀點。這種影響更接近人類通過協作和社會規範相互影響的方式,而非我們熟悉的大眾媒體或社交媒體影響。
發現這一現象的研究者認為,抵禦這種新型心理影響的最佳方式(目前也是唯一方式)是提高公眾認知。長遠來看,其他防範措施——如監管機構要求公開AI算法運作原理及其模仿的人類偏見——可能也會有所幫助。
這一切可能導致未來人們在選擇使用何種AI時——無論是在工作還是家庭中,在辦公室還是孩子的教育中——會基於AI回答中所體現的人類價值觀來決定。
某些AI可能具有不同的“個性”——包括政治傾向。如果你正在為工作的環保非營利組織撰寫給同事的郵件,你可能會使用一個假設名為“進步GPT”的AI。而另一個人為保守派政治行動委員會起草社交媒體聲明時,或許會選用“共和黨GPT”。還有人可能會在他們選擇的AI中混合搭配特質和觀點,未來這些AI甚至能個性化到足以逼真模仿用户的寫作風格。
推而廣之,未來企業和其他組織可能會提供專為不同任務從頭構建的AI。銷售人員可能使用一個調整為更具説服力的AI助手——姑且稱之為“銷售GPT”。客服人員則可能使用一個受過特別禮貌訓練的AI——“支持GPT”。
AI如何改變我們的思維
回顧先前的研究為潛在説服力的故事增添了細微差別。2021年的一項研究表明,谷歌Gmail提供的AI自動回覆功能“智能回覆”——通常非常積極——會促使用户整體上以更積極的語氣溝通。另一項研究發現,每天被使用數十億次的智能回覆功能,能讓接收者感覺發送者更友善且更具合作精神。
開發讓用户能與人工智能互動來撰寫電子郵件、營銷材料、廣告、演示文稿、電子表格等內容的工具,正是微軟和谷歌的明確目標,更不用説數十甚至數百家初創公司了。週三,谷歌宣佈其最新的大型語言模型PaLM 2將應用於公司25款產品中。
與OpenAI合作的OpenAI、谷歌和微軟都熱衷於強調他們在負責任人工智能方面的工作,包括研究人工智能可能帶來的危害並加以解決。微軟負責任人工智能團隊的負責人莎拉·伯德最近告訴我,公開實驗並迅速應對其人工智能出現的任何問題是該公司的關鍵策略。
OpenAI的團隊寫道,該公司“致力於強有力地解決這一問題[偏見],並在我們的目標和進展上保持透明。”OpenAI還發布了部分關於其系統應如何處理政治和文化主題的指導方針。其中包括要求其算法在生成關於“文化戰爭”主題的文本時不應偏袒任何一方,也不應評判任何一方的好壞。
Jigsaw是谷歌內部的一個部門,負責為公司內部從事大型語言模型(這些模型為當今基於聊天的人工智能提供動力)的人員提供建議和工具,Jigsaw的工程和產品負責人露西·瓦瑟曼説。當我問她關於潛在説服的可能性時,她説,這樣的研究表明了Jigsaw研究和理解與人工智能互動如何影響人們是多麼重要。
“當我們創造出新事物時,人們將如何與之互動以及它會產生什麼影響,這並不顯而易見,”她補充道。
“與社交媒體上推薦系統、信息繭房和兔子洞效應(無論是否由AI導致)的研究相比,這裏的微妙之處才真正耐人尋味,”發現潛在説服力的研究者之一納曼博士表示。
在他的研究中,實驗對象被成功改變觀點的議題是"社交媒體是否對社會有益"。納曼博士及其團隊選擇該議題的部分原因在於,人們對此通常沒有根深蒂固的立場,因而觀點更容易被改變。當AI預設支持社交媒體的立場時,往往會引導受試者寫出符合該立場的文章;而當AI預設反對立場時,則會產生相反效果。
生成式AI這一特性的潛在負面影響比比皆是:專制政府可能強制要求社交媒體和生產力工具都以特定方式引導公民表達。即便沒有惡意,學生在使用AI輔助學習時也可能不知不覺被引導接受某些觀點。
解析AI的"信念"
讓實驗對象相信社交媒體對社會利大於弊或弊大於利是一回事。但在現實世界中,我們使用的生成式AI系統究竟存在哪些傾向?
斯坦福大學以人為本人工智能研究所的計算機科學助理教授橋本立典指出,像ChatGPT這樣的AI算法並不具備信念。但它們確實會呈現從訓練數據中獲得的觀點,而這些觀點是可以被量化的。
在一篇最新論文中,橋本博士及其團隊利用皮尤研究中心多年的全國調查數據,研究了不同大語言模型(支撐ChatGPT等AI的系統)反映美國人觀點的準確度。
由於美國民眾觀點差異巨大,研究人員重點分析了AI生成的回答及其出現頻率是否與美國人的回答分佈相匹配。他們通過向AI提出與皮尤調查相同的選擇題來" polling"這些系統。
研究發現,OpenAI等公司的大語言模型回答分佈與整體美國民眾不符。在皮尤調查的所有羣體中,OpenAI模型最接近的是受過大學教育人羣的觀點。值得注意的是,參與調整這些AI系統以優化回答的人羣中,該羣體的代表性也最高——儘管橋本博士表示這一證據更多是間接的。
橋本博士指出,創建大語言模型的挑戰在於:由於系統複雜性及人機交互的開放性,若想完全剔除觀點和主觀性而不犧牲系統實用性,目前看來極為困難。
這些模型的訓練數據來源廣泛(通常包含互聯網大量抓取內容),不可避免地吸收了原始文本中的觀點和偏見——無論是公共論壇留言還是維基百科條目。通過人類反饋機制(包括刻意設計和自然形成),這些觀點被進一步塑造,使AI不會回答開發者設定的禁區問題(如製造炸彈方法)或輸出被判定為有害的內容。
“這是一個非常活躍的研究領域,問題包括什麼是正確的護欄,以及將這些護欄放在訓練過程中的哪個位置,”瓦瑟曼女士説。
這並不是説我們許多人已經在使用的人工智能只是那些相對年輕、受過大學教育、居住在西海岸、一直在構建和微調它們的人的算法克隆。例如,雖然這些模型在許多問題上(如槍支管制)傾向於給出典型的民主黨回應,但在其他問題上(如宗教)則傾向於給出更典型的共和黨回應。
評估人工智能的觀點將是一項持續的任務,因為模型會不斷更新,新的模型也會不斷出現。橋本博士的論文沒有涵蓋OpenAI、谷歌或微軟的最新模型,但作為斯坦福大學“語言模型整體評估”項目的一部分,對這些模型及更多模型的評估將定期發佈。斯坦福大學“語言模型整體評估”項目。
根據AI的“價值觀”選擇
哥倫比亞大學計算機科學教授莉迪亞·奇爾頓表示,一旦人們掌握了他們正在使用的人工智能的偏見信息,他們可能會在此基礎上決定使用哪種人工智能,以及在什麼情況下使用。她補充説,這樣做可以讓使用人工智能幫助他們創建內容或幫助他們交流的人重新獲得一種能動性,並幫助他們避免潛在的威脅感。
人們也可能會發現,他們可以有意識地利用人工智能的力量,促使自己表達不同的觀點和溝通風格。例如,一個被編程使我們的交流更加積極和富有同理心的人工智能,可以在很大程度上幫助我們在網上建立聯繫。
“我發現保持興奮和快樂的語氣很費力,”奇爾頓博士説。“咖啡因通常有幫助,但ChatGPT也能派上用場。”
欲獲取更多《華爾街日報》科技領域的分析、評論、建議和頭條新聞,請訂閲我們的每週通訊。
本文刊登於2023年5月13日的印刷版,標題為《救命!我的政治信仰被聊天機器人改變了!》。