當AI拒絕你的貸款申請時,你應該有權向人類申訴嗎?——《華爾街日報》
Demetria Gallegos
長期以來,計算機算法被用於追蹤罪犯、設定保險費率及審核抵押貸款。但當這些應用與人工智能結合後,其影響力會以當事人難以察覺的方式呈指數級放大——機器學習與聊天機器人介入決策流程後,這種計算機輔助評估的"黑箱效應"變得更為深不可測。
但這樣合理嗎?
這只是人工智能引發的眾多新困境之一,我們已就此向《華爾街日報》讀者發起探討。
我們的問題是:當人工智能做出影響個人生活的決策(如抵押貸款評估)時,人們是否有權知曉?被AI拒絕的申請者,是否應有權質疑決策並要求人工重新評估?
以下是部分讀者反饋。
對人類判斷的謬誤假設
無需特別披露是否使用AI進行決策。但無論決策方式如何,每個人都應享有質疑和申請複核的權利。這個問題隱含人類比AI更"公平"的前提,這本身就是值得商榷的假設。
- 薩布麗娜·馬布比,加州比佛利山莊
AI的隱形偏見
必須披露!在處理敏感信息時,向客户告知AI的使用至關重要。若AI模型基於未公開數據訓練,可能攜帶導致重大決策偏差的隱形偏見(如房貸評估)。除非模型僅使用信用分數、收入區間等透明參數,否則任何基於複雜/不透明因素的決策都應向客户披露。
不僅應讓客户知曉AI的參與及其決策依據,還應保留其要求人工複核決策的權利。這仍是項新技術,任何新生事物都需經歷問題修正的過程。AI的引入不應模糊流程,而應優化流程,確保決策保持公平、透明並接受人工監督。
- 赫克託·洛佩茲,休斯頓
算法不具備同理心
當然需要,因為人類擁有算法無法訓練出的經驗與共情能力。個人理應享有向人類申訴的權利。
- 斯科特·金,喬治亞州斯泰茨伯勒
責任歸屬不變
若人們有權因歧視或損失起訴貸款機構,那麼決策者是誰並不重要——責任主體仍是機構本身。如果無權質疑人工藉助軟件做出的決策,又為何有權質疑完全由軟件做出的決策?
- 唐納德·卡西爾,芝加哥
越透明,AI越完善
是的,他們應享有知情權。我認為這將促使AI工具製造商構建更優質的系統——通過訓練消除偏見等。至於挑戰決策的權利,需視情況而定。抵押貸款歷來存在偏見問題(紅線歧視仍存),此類案例中確實需要。
- 蒂姆·麥古金,弗吉尼亞州雷斯頓
消費者的權利
是的,我認為了解得越多對消費者越有利。人工智能常被宣傳為比人類更智慧、更少缺陷,面向大眾和企業推廣,但其主要優勢目前仍在於效率。由AI做出的抵押貸款決策肯定比人類更快,但並沒有內在理由表明其決策會更優。AI只能在數據集和參數範圍內運作,因此任何決策都基於預設的標準。根據AI編程方式的不同,它可能會強制執行關於誰可獲得貸款的不公平或帶有偏見的標準。
由於存在潛在偏見的可能性,消費者應有權知曉自己的生活是否受到算法影響,以及算法如何或為何做出某項決定。
- 麗貝卡·小林,弗吉尼亞州費爾法克斯
不敢奢望
應允許人類員工推翻AI的決策,但從現實角度(基於當前企業政策和流程),我對這方面不抱太大期望。在現有推翻自動化決策系統的嘗試中,我們已經看到了無效性和循環邏輯的使用:“很抱歉,您對系統判定的上訴已被拒絕。計算機判定您存在信用風險,因此我無法推翻系統的決定。”
- 約翰·帕齊亞萊,佛羅里達州奧卡拉
責任在人,不在機器
沒有人有義務告知是否使用AI做出某項決定。我不需要告訴你我是用計算器的會計師還是用扳手的機械師。人們選擇是否使用AI等技術。話雖如此,如果工作質量低劣,應該承擔責任的是人,而非AI或計算器。
因此,如果你因錯誤原因被拒絕,無論是否涉及人工智能,你都應該有權提出質疑。選擇使用有缺陷機器的人應當承擔責任,而非機器本身。在未來幾年裏,人類問責制才是關鍵,而非機器問責。
- 布拉德·格里岑科,北卡羅來納州維克森林
劣質數據氾濫成災
我們現有的運作系統本質上已是人工智能,它們做出的決策影響着我們。例如用於確定保險費率的信用評分系統,它抓取海量數據並與個人關聯,通過計算信用評分來制定房屋和汽車保險的費率等級。
這些系統使用的數據極其可疑(以我本人為例,他們竟採用與我已故父親相關的數據——我們同名同姓,而他在1979年就已去世——來計算我的評分),且因其算法屬於商業機密而逃避審查。儘管法規要求保險公司披露評分使用情況,但這些評分結果本身卻無法被質疑。
這些人工智能評分的開發者刻意將運作機制複雜化,並聲稱無法修正錯誤,因為錯誤源自數據提供方——而後者從不與外界溝通。我們越是依賴不透明的算法和無法修正的劣質數據,就越難挑戰這些左右生活的決策。
- 拉爾夫·卡魯索,佛羅里達州棕櫚城
銀行家視角
我認為這取決於你問誰。作為一名銀行從業者,我認為人工智能能極大加速貸款申請的信用評估流程。通常銀行不會透露具體的借款人信用評估程序,這能給我們更大操作空間。但信貸流程中確實存在需要人類判斷的環節:人工智能可以接管數據收集和初步評估,而人類更擅長評估借款人的品格和客户關係維護。即使在信用分析中,人工智能對某些數據的解讀也可能片面,這時就需要人類介入進行更全面的研判。
如果任何人被人工智能主導的流程拒絕,那麼他們應有權要求由人類重新評估,因為在這些情況下,信用申請存在人類更能辨識和闡述的無形特質。
- 敏·趙,加利福尼亞州佈雷亞
目前仍需人工複核…
無需公開人工智能在決策過程中的參與。
決策質量僅取決於決策者(無論是個人還是AI)的訓練質量。如果AI經過良好訓練並採用適當考量(如消除偏見等),它很可能比一羣帶有個人偏見和獨特癖好的人類評估者更優秀、更穩定。
但在AI及其訓練成熟之前,所有AI評估都應經過人工複核。隨着時間的推移,AI評估的穩定性和質量將超越人類,屆時不再需要人工干預。
- 傑伊·韋爾曼,科羅拉多州奧羅拉
AI並無特殊之處
無需披露AI的參與。我們本就無從知曉影響我們的諸多決策(如大學錄取和信用評分)的具體形成過程。
- 克林特·尤班克斯,休斯頓
最終決定權歸誰?
當然應該公開。AI的準確性完全取決於編程者和其所採集的數據——而這些絕不意味着公平無偏見。人類或許同樣存在偏見,但至少人能思考並做出判斷。AI絕不應成為大多數事務的最終裁決者。
- 米歇爾·莫特·哈維,密西西比州牛津市。
一場更宏大的對話
原則上,基於人工智能的決策確實應該標註其性質。但消費者保護條款需要更清晰地呈現——將其埋在30頁的法律文件中,與完全不聲明幾乎同樣糟糕。人工智能的出現,恰恰推動我們深入探討如何改進消費者保護機制。
- 傑夫·D·施洛默,加利福尼亞州門洛帕克
同等追責原則
當人工智能決策成為主流時,它必須像人類決策者一樣接受問責並在必要時承擔同等處罰。例如,若企業貸款決策中存在基於膚色、性別等歧視性特徵的行為,必將面臨訴訟。現有處罰機制已然存在,人工智能應遵守與所替代人類決策者相同的法律規範。 員工犯錯可能被解僱、再培訓或追究法律責任,同理,AI模型也應通過再訓練、參數調整、更換更優模型或直接停用等方式解決問題。
- 諾曼·謝赫,馬里蘭州馬里奧茨維爾
默認AI化時代
在不遠的將來,人工智能將滲透所有領域。要求處處披露AI使用情況將變得冗餘且乏味。聲明:本文由GPT-4參與編輯。
- 簡·揚格,新澤西州克蘭福德
德米特里婭·加萊戈斯 是《華爾街日報》在紐約的一名編輯。請通過電子郵件聯繫她:[email protected]。