班鮑爾和裏希:相比於人類決策,消費者更信任算法決策?-德里克·班鮑爾、邁克爾·裏希
【文/德里克·班鮑爾和邁克爾·裏希 譯/觀察者網 劉思雨】
想象一下,你正在申請銀行貸款以購買一輛新車,並且你非常需要它。在你提供信息後,銀行給你一個選擇:你的申請可以轉給貸款部門的員工進行評估,也可以由計算機算法來確定你的信用度。選擇權在你手中。你是選擇一號門(人類僱員)還是二號門(軟件算法)?
傳統看法是,你一定是瘋了才會選擇背後是算法的二號門。大多數評論家對算法的看法是既恐懼又厭惡。他們認為,數字計算代碼提供的是不準確的判斷,使我們和我們的孩子沉迷於社交媒體網站,審查我們的政治觀點,並且傳播關於新冠病毒疫苗和治療的錯誤信息。
觀察家們提出了一系列建議以限制算法在我們生活中的運用,從透明度要求到內容審核的限制,再到增加平台使用搜索引擎來突出某些信息的法律責任。其基本假設是,洶湧的民意要求將算法推到台下,以古老的人類決策的方式取代它們。
然而,批評者和改革者們,基本上沒人提出過這個重要的問題:人們對算法決策影響日常生活這一問題究竟抱有什麼態度?在即將發表在《亞利桑那州立法律雜誌》(Arizona State Law Journal)上的一篇論文中,我們就提出了這個問題。
我們調查了人們對人類決策和算法決策的偏好,涵蓋了瑣碎的小事(贏得一家咖啡店的小禮品券)到重大事項(決定被調查者是否違反了交通法規並應支付高額罰款)——結果是令人驚訝的。調研結果表明,在關於何時以及如何監管算法的辯論中,需要進行更加細緻的鑑別;還表明,條件反射性地拒絕算法決策是不可取的。
沒有人想要有偏見的算法,比如那些增加醫療服務中種族差異的算法。在某些情況下,比如在刑事審判和判刑的時候,應該由人類來進行決策以符合重要的價值觀,比如公平和程序正當等。但人類決策者也經常有偏見,他們的決策也不透明、不公平。為使用算法設置系統性障礙,很可能使人們的處境變得更糟。

在東京的一個IT貿易展上,屏幕上展示了人工智能正在實時檢測每個人的特徵以得出解決方案。(Yasushi Wada / The Yomiuri Shimbun via Reuters Connect)
結果顯示,人們選擇算法的頻率遠遠高於人們在學術界和媒體評論中所得到的心理預期。當被問及日常場景時,人們大多相當理性——他們在人類法官和算法之間做選擇的依據是哪個成本更低、錯誤更少、決定更快。
調查顯示,消費者仍然符合人類的特徵:當風險增加時,我們更傾向於有一個人類參與其中,而且我們更願意堅持最初給我們的某個選項。對調查數據的分析還提出了一些有用的政策干預措施,如果政策制定者確實要監管代碼的話,可以披露算法最重要的特點,建立現實的比較基準,並謹慎設置默認值。
在人類和算法之間做出選擇
我們的研究涵蓋了約4000名對在線調查做出回應的人。每個受訪者都被隨機分配到四個場景中的一個,在這些場景中,人類或算法對不同利害關係做出決策:贏得一張咖啡店的禮品卡;獲得一筆銀行貸款;接受一項可行性高的治療方法的臨牀試驗;以及在民事交通法庭上面臨一筆鉅額罰款。然後,該調查隨機選擇人類或算法作為初始(默認)決策者。隨後,調查向受訪者提供了關於每種決策者的成本、速度、準確性和所使用的信息(僅公開,或公開加上私人信息,如信用報告)的信息。
最後,調查問受訪者,他們是否想繼續使用最初分配給他們的決定者(人類或算法),或者是否要換一個。這種設計使我們能夠評估這些因素中的每一個是如何影響參與者對人類和算法的選擇的,以及它們之間是如何相互影響的。結果是明確而有力的——每一個發現都具有強烈的統計學意義,只有下面描述的這兩個結果是例外。
在一些常見的決策情況下,人們更喜歡由算法而不是人類來進行決策,但他們是否喜歡算法是由算法的運作方式決定的。總的來説,接受調查者有一半以上的場合(52.2%)選擇算法來決定一個問題,這表明對算法的道德恐慌被誇大了。這種偏好與主導媒體報道的算法懷疑論形成了鮮明的對比。
其次,消費者對算法的感受在很大程度上取決於成本、速度和準確性等實際因素,但不受隱私問題(例如對敏感數據的訪問)的影響。基於這些數據,我們認為對算法在決策系統中可允許作用的政策選擇,必須仔細考慮這些消費者偏好。如果不這樣做,就將破壞法律改革的合法性,並阻礙其實施。
在人們的選擇中,隱私並不是一個有意義的因素。在決策者可以訪問他們私人信息的情況下,參與者對其是人類還是算法漠不關心。我們懷疑人們在將私人信息納入決策時有不同的偏好。例如,有些人可能更喜歡算法,因為代碼不會做評價——它使用非情感的邏輯處理信息,而不是道德化的邏輯。但這可能也是其他人更喜歡透露敏感信息的原因,他們可以將公開信息置於更廣泛的背景下,並且能夠以同理心進行分析。不過,總體而言,隱私問題並未造成任何方向的偏好。
消費者偏好
在選擇算法還是人類的問題上,什麼最重要?簡而言之:價格(相對成本和收益)、準確性、風險、速度和默認設置。我們的研究設計使我們能夠梳理不同的變量,看看哪些變量對人們最重要。
結果表明,參與者不是反對算法,而是以在很大程度上遵循經典理性行為模型的方式對不同條件做出反應。人們更喜歡以更便宜、更準確、更快速的方式做出決定的選項。隨着所涉及的風險增加,參與者傾向於以更高的速度選擇人類。
我們的調查數據還顯示出很強的錨定效應(譯者注:錨定效應指受事物的第一印象影響,以後會產生先入為主的觀念)。受訪者傾向於選擇程序最初分配給他們的決策者類型,尤其是如果它是算法。
價格對消費者來説真的很重要。當該算法提供更低的成本或更大的收益時,61%的受訪者選擇了它;而當它提供的效果與人類相等時,這一比例僅為43%。價格的影響超過了準確性(錯誤率)和速度的影響。
例如,考慮在風險算法(具有高錯誤率的算法)和準確度未知的人類之間進行選擇,其中兩個選項的價格相等。在這種情況下,接受調查的人只有26%的時間選擇了不穩定的算法。然而,一旦該算法提供了有意義的價格優勢,其接受率就上升了一半以上,達到42%。參與者願意為了更大的價格回報而賭博。
同樣,如果人類和算法都提供相同的速度和好處,那麼受訪者只有38%的時間選擇了算法。如果算法更快,則該份額將增加到47%。但是,如果該算法在相同的時間內提供了更好的價格,那麼參與者的選擇率為57%。
利害關係對消費者也很重要。調查場景詢問參與者關於權重大小的決定:一端是利益牽涉較少,比如贏得一張小額貨幣價值(10-20美元)的咖啡店禮品卡,另一端是利益關係大,比如因交通罰單被罰款數百美元。結果跟蹤了有關消費者偏好的標準直覺——利害關係越大,受訪者就越有可能希望有人蔘與其中。即便如此,這種效果也是有限的。對於交通罰單場景,56%的人選擇了人類;對於禮品卡,56.4%選擇了算法。[1]在利害關係範圍的兩端,也有相當多人選擇那個少數選項。
準確性也影響了人與算法之間的選擇。當一個選項的錯誤率高而另一個選項的錯誤率低時,74%的受訪者選擇了準確度更高的選項。當人類和算法具有相同的準確性時,參與者基本上會分散他們的選票。在沒有關於任一選項準確性的信息的情況下,人們有65%的時間選擇了人類決策者,這可能反映了關於算法風險程度的基線假設。
速度也影響了這個決定。更快的算法導致57%的受訪者選擇了它,但當人類決策速度同樣快時,選擇算法的人下降到48%。並且在四種場景中,當兩個決策者的速度相等時,受訪者選擇算法的意願都下降了。
最後,默認值很重要。最初被分配給算法決策者的人有62%的時間選擇了該選項,而最初被分配給人類的人中有58%的情況下也是如此。有趣的是,算法和人類默認值之間的差異在統計上是顯著的:算法具有更大的持久力。當兩個選項之間的準確性存在差異時,錨定的減少最大。
這些結果表明,消費者在評估是選擇算法還是選擇人類決策者時是比較務實的。最重要的是,他們是有價格意識的,這表明日常生活中的選擇背後都是由實用主義動機在推動。
政策建議
這些有關消費者喜好的數據在幫助人們或算法做出決策方面有着重要的政策意義。
第一,從原則性和重要性的角度來講,這些喜好是很重要的,必須予以考慮。
原則性的角度是指,民主國家的運作是基於這樣一個假設,即人民是自己利益的最佳評判者。但這種假設也會有錯的時候,特別是當一個人的決定傷害到了其他人的時候,例如企業運用算法來歧視邊緣化的社區和個人。
然而,我們的研究所涉及到的利益權衡,只會影響那些在人與算法之間做出選擇的人。如果人們給出更低的價格,使得算法的準確性也因此降低,那麼社會是否應該凌駕於這種偏好之上,尤其是那些不是很重要的決策,還不清楚。
考慮現有偏好的重要原因是,如果擬議中的改革與民眾的態度背道而馳,改革就會更加艱難。即使羣眾的意見被誤導了,他們也是一個重要的指引,可以告訴我們哪種政策是可行的,以及要付出什麼代價。
第二,調查結果對於提高算法透明度非常有用。
參與者的選擇告訴了我們,哪些信息對消費者的決定有着最重要的影響。改革的重點應該是讓銀行等實體披露算法提供了哪些好處,以及代價是什麼,而不是算法是如何運作的,因為這些信息對普通人來説難以理解。也許,最重要的是,透明度也是相對的。人類的法官也可能是不透明的、有偏見的、武斷的。算法的底線應該是人類提供的現實世界的替代方案,而不是中立、客觀而又活生生的理想仲裁者。
第三,(初始)默認設置很重要,但不是絕對的。
我們的研究表明,初次分配的錨定效應是真實而顯著的。路徑依賴可能是算法治理的結果,因此在第一個實例中仔細設置策略非常重要。研究結果還顯示瞭如何突破默認設置的慣性:在有意義的選擇的背景下,為人們提供相關的、準確的信息。這可以與系統設計相結合,最大限度地減少默認設置的影響,如強迫選擇,它既沒有現實,也沒有初始設置的外觀。
第四,調查參與者本能地抓住了算法爭論中的一個關鍵點:利害關係和背景問題。
這項研究測試了相對日常的決定。不過,即使在有限的場景中,情況也是大不一樣的。比如在交通罰款的場景中,由於涉及到數百美元的罰款,會比爭奪咖啡店禮品卡這種場景更容易讓人擔心算法所產生的偏見和漏洞。
這對爭論雙方都有影響。算法的倡導者和設計者應該把注意力更多集中在利益攸關的情況下,在這個框架內,他們應該特別注意消費者偏好的結果,如默認設置的權力大小。如果批評家們把注意力集中在算法的更重要的方面,例如刑事緩刑、保釋和判刑,那麼他們的案例會更有效。簡而言之,對於算法的運用需要更細緻的討論,通過關注潛在決策中的風險來不斷改進算法。
最後,消費者在選擇人工和算法時對某些形式的風險很敏感——特別是,他們擔心決策者會犯錯誤(錯誤率)或他們會遭受更嚴重的後果(基於場景的風險)。這些實證結果支持基於風險的算法治理方法,特別是如果風險分析還包含了抵消的好處的話,歐盟和一些國會議員,還有拜登政府已經開始考慮將其投入應用了。
回到正題:對於大多數人來説,在算法和人類決策者之間做出選擇並非“淑女還是老虎”的難題(譯者注:指無法解決的難題)。相反,它涉及到實用性和功利性的問題,這些都可能受到如默認設置下的系統設計的重要影響。當算法做出決策時,更應該關注的是消費者想要什麼,以及為什麼,才能帶來更好的算法和更佳的治理。
德里克·班鮑爾(Derek E. Bambauer)是亞利桑那大學的法學教授,教授互聯網法和知識產權。
邁克爾·裏希(Michael Risch)是維拉諾瓦大學查爾斯·韋傑法學院的副院長和法學教授,也是該校知識產權政策委員會的成員。
(本文發表於2021年11月10日美國布魯金斯學會網站,譯者劉思雨)
本文系觀察者網獨家稿件,文章內容純屬作者個人觀點,不代表平台觀點,未經授權,不得轉載,否則將追究法律責任。關注觀察者網微信guanchacn,每日閲讀趣味文章。