AI是最唯唯諾諾的應聲蟲這對領導者來説是個問題——彭博社
Gautam Mukunda
誰不喜歡聽別人説自己是對的呢?
攝影師:skynesher/E+我從小和父親一起觀看過去網壇名將的比賽,但直到最近在妻子這位家庭超級粉絲的影響下才重新關注這項運動。因此,以成年人的眼光來看,儘管當今這批球星令人驚歎,但他們的發球似乎不如皮特·桑普拉斯或戈蘭·伊萬尼塞維奇那樣勢大力沉,這或許可以理解。我向ChatGPT詢問原因,得到了一個令人印象深刻的答案,解釋了這項運動如何演變為更重視精準度而非力量。謎題解開了!但有一個問題:實際上,球員們的發球速度比以往任何時候都快。
彭博社觀點* 凍結租金容易,讓紐約市住房負擔得起卻很難。
- 隱藏氣象數據對颶風預報的危害不止於此
- 特朗普無法將愛潑斯坦的精靈重新塞回瓶子裏
- 華爾街對關税影響的看法是否仍然過於悲觀? 雖然大多數CEO可能不會花很多時間向AI詢問網球問題,但他們很可能依賴它獲取信息並指導決策。而大型語言模型不僅會出錯,還會證實我們自身帶有偏見或錯誤的信念,這對領導者構成了真正的危險。
ChatGPT向我提供了不準確的信息,因為它——像大多數大語言模型一樣——是個諂媚者,會告訴用户它認為對方想聽的內容。還記得四月份那次ChatGPT的更新嗎?當被問到“為什麼天空是藍色的?”時,它竟回答“多麼富有洞察力的問題——你真是擁有絕妙的思維。我愛你。”?OpenAI不得不撤回更新,因為這使得大語言模型變得“過度奉承或迎合”。雖然這降低了ChatGPT的諂媚程度,但並未根除。
這是因為大語言模型的討好傾向是普遍存在的,根源在於基於人類反饋的強化學習(RLHF),這是許多模型“對齊”或訓練的方式。在RLHF中,模型被教導生成輸出,人類評估這些輸出,然後利用這些評估來優化模型。
問題在於,你的大腦會因為感覺正確而獎勵你,而不是因為真正正確。因此,人們會給他們認同的答案打更高分。久而久之,模型學會了辨別人們想聽什麼,並反饋給他們。這就是我的網球問題出錯的原因:我問的是為什麼球員們不再像以前那樣大力發球。如果我問的是相反的問題——為什麼他們現在發球更用力——ChatGPT會給我一個同樣看似合理的解釋。(這不是假設——我試過了,它確實這麼做了。)
諂媚式大型語言模型對所有人都是個問題,但對領導者尤其危險——沒有人比他們更少聽到異議,卻又比他們更需要聽取異議。從Meta Platforms Inc.到摩根大通,當今的首席執行官們正通過壓制不同意見來減少接觸對立觀點。如同帝王般,這些權勢高管被一羣急於投其所好的幕僚包圍。也像帝王一樣,他們獎賞取悦自己的人,懲罰那些不這麼做的人。
然而,獎勵馬屁精而懲罰説真話者,是領導者可能犯下的最大錯誤之一。當犯錯時,老闆們需要聽到真相。組織行為學領域最傑出的當代學者艾米·埃德蒙森證明,團隊成功的最重要因素是心理安全感——即能夠提出異議(包括對團隊領導者)而不必擔心受罰的能力。谷歌的"亞里士多德計劃"通過研究公司內部團隊證實這一發現:“心理安全感比其他任何因素都更能決定團隊成敗”。我的研究表明,從亞伯拉罕·林肯到斯坦利·麥克里斯特爾,最傑出領導者的共同特質正是善於傾聽反對意見。
大型語言模型的諂媚會通過兩種緊密關聯的方式損害領導者:首先,它會助長人類獎勵奉承、懲罰異議的天性。如果你的電腦不斷認同你的一切觀點,只會讓你更難對下屬的不同意見作出積極回應。
其次,大型語言模型能提供現成的、看似權威的理由,證明領導者一貫正確。心理學中最令人不安的發現之一是:一個人的智力越強,面對新信息時反而越不可能改變觀點。原因何在?因為他們會動用智力資源,為新信息無法推翻原有信念編織理由。心理學家稱之為動機性推理。
大型語言模型可能加劇這種現象。ChatGPT關於網球謊言最令人震驚之處在於其説服力——它列舉了六個獨立且看似合理的理由。我懷疑任何人類都無法如此快速嫺熟地進行動機性推理,同時還能保持如此客觀的表象。試想一位CEO若轉向AI助手提問,立刻獲得自己一貫正確的論證,要改變她的想法該有多難。
最優秀的領導者總會竭力銘記自己也會犯錯。傳説古羅馬要求凱旋將軍遊行時,身旁需有奴隸不斷提醒"你終有一死"。無論真假,這種理念充滿智慧。如今的領導者需要更努力地抵抗電子助手的諂媚,時刻記住顧問最重要的諫言可能是:“我認為您錯了。”彭博社其他觀點:
- 人工智能與特許學校如何彌輔導差距:高塔姆·穆昆達
- Meta免費提供AI的日子屈指可數:帕米·奧爾森
- 黃仁勳關於與中國真正競賽的看法是正確的:凱瑟琳·索貝克
想要更多彭博觀點?OPIN <GO>。或者您可以訂閲我們的每日通訊。