如何讓人們信任人工智能的預測——《華爾街日報》
Taly Reich and Sam J. Maglio
人們通常對人工智能的信任度不如對其他人高。但有一種方法可以改變這種狀況。插圖:賈科莫·巴尼亞拉在人類與算法的競賽中,這幾乎算不上是一場較量。在人類大腦還在糾結午餐吃什麼的時間裏,機器通過複雜方程處理海量數據,經常能比專家更準確地預測,例如哪位員工會在工作中取得成功,以及如何優化供應鏈。
機器還有能力改變我們作為消費者的生活——預測哪些衣服最適合我們,哪些電影我們會最喜歡,以及哪種治療方法最有可能成功。
然而,這種更智能、更快樂、更高效的生活承諾卻無人理會,因為人們很難擺脱所謂的算法厭惡。我們不願意信任某種模糊的公式,更願意諮詢有生命的東西,任何有生命的東西。如果我的醫生或朋友搞錯了,至少我可以嘲笑他們的直覺失誤。更重要的是,我們可以與那些給我們提供糟糕建議的人交談,這可以為他們提供一個學習的機會,表明他們的建議值得以後再次尋求。
這些對話不會通過方程式發生。算法的內部運作仍然是個謎,我們只能觀察結果而無法瞭解過程。因此,如果算法預測出現偏差,我們就會認為這個黑匣子必定已無法修復,動搖我們再次諮詢它的信心。
除非我們能説服潛在用户,算法和人一樣能從錯誤中學習。正如我們最近發現的那樣,這能顯著減少對算法的牴觸情緒。
微弱的信任
我們的第一項研究證實了算法面臨的艱難處境。一組參與者讀到一位能通過簡短概述以80%準確率識別他人性格的心理學家。對另一組,我們將心理學家替換為算法。所有人隨後回答兩個問題:(1)他們認為算法從過去錯誤中學習的能力如何,(2)他們對其信任度如何。結果證實,人們認為算法從錯誤中學習的能力明顯較弱,導致信任度降低。
問題顯而易見後,我們接下來考慮了一個簡單的解決方法:向人們展示算法確實能學習。
隨後的一個實驗中,參與者選擇由人類心理學家或算法來預測他人性格。與第一項研究一樣,一組參與者僅知道算法的成功率與心理學家相同,均為相對令人印象深刻的80%。其他參與者則看到算法性能逐步提升的詳細歷史:前三個月為60%,之後升至70%,現在達到80%。在這些參與者中,三分之二選擇了算法而非人類,儘管當前兩者成功率相同。向人們展示算法在學習足以改變他們對機器的信任。
一項類似的研究承諾向在線參與者免費贈送一件藝術品——他們只需選擇是由藝術策展人還是算法來挑選作品。部分人僅被告知當年算法推薦作品的售出率為65%;另一組人則看到算法成功率從55%穩步提升至60%,最終達到65%(與策展人成功率持平)。當展示算法持續進步的表現時,人們對算法的偏好度躍升了18%——從38%增至45%。
潛在可能性暗示
並非所有算法都會持續優化。面對這種情況如何贏得消費者?我們思考是否通過暗示算法具有未來改進潛力就能奏效。為此,我們將"傳統算法"改稱為"機器學習算法"。當名稱包含"學習"屬性時,參與者對算法的青睞程度與看到詳細進步歷史的算法持平。
最終研究表明,這種措辭技巧的強大效果甚至能讓人放棄個人判斷選擇算法——即便在挑選藝術品這類主觀事務上。面對"傳統算法"時參與者56%選擇相信自己,但當對象變為"機器學習算法"時,67%的人轉而選擇算法。僅僅改變算法名稱就足以扭轉人們對它的態度。
犯錯並非人類專利——任何試圖預測未來的存在,無論人還是機器,都難免失誤。人工智能未來的成功,或許取決於能否讓人們相信:從錯誤中學習的能力,同樣可以超越人類。
Reich博士是耶魯大學管理學院的市場營銷學副教授。Maglio博士是多倫多大學羅特曼管理學院及士嘉堡分校的市場營銷與心理學副教授。他們的聯繫方式是[email protected]。