人工智能需要做一些解釋 - 彭博社
Jeremy Kahn
人工智能 軟件可以識別面孔,翻譯普通話和斯瓦希里語,並在圍棋、國際象棋和撲克等遊戲中擊敗世界上最優秀的人類選手。它無法始終做到的是解釋自己。
人工智能是能夠從數據或經驗中學習以進行預測的軟件。計算機程序員指定軟件應學習的數據,並編寫一組指令,稱為算法,關於軟件應如何做到這一點——但並不具體規定它應學習什麼。這就是人工智能大部分力量的來源:它可以發現數據中的聯繫,這些聯繫對人類來説會更復雜或更微妙。但這種複雜性也意味着,軟件得出任何特定結論的原因通常對其創造者來説也是相當不透明的。
彭博社商業週刊如何讓Jellycat毛絨玩具成為Z世代的痴迷降息需要時間才能在經濟中發揮作用哈馬斯襲擊以色列以引發更廣泛的衝突。一年後,它實現了這一目標如何讓Bogg Bags,這種拖鞋的手提包,贏得美國媽媽們的青睞對於希望銷售人工智能系統的軟件製造商來説,這種缺乏透明度可能對業務不利。人類很難信任一個他們無法理解的系統——而沒有信任,組織就不會為人工智能軟件支付高額費用。這在醫療、金融和執法等領域尤其如此,因為錯誤推薦的後果比例如Netflix認為你可能喜歡觀看*《宿醉3》*時要嚴重得多。
監管也在推動公司要求更多可解釋的人工智能。在美國,保險法要求公司能夠解釋為什麼拒絕某人的保險或向他們收取比鄰居更高的保費。在歐洲,通用數據保護條例於五月生效,賦予歐盟公民對任何影響他們的算法決策“進行人工審查的權利”。如果銀行拒絕你的貸款申請,它不能僅僅告訴你計算機説不——銀行員工必須能夠審查機器拒絕貸款申請所使用的過程或進行單獨分析。
插圖:Félix Decombat 為《彭博商業週刊》繪製大衞·肯尼(David Kenny),直到本月初還是國際商業機器公司(IBM)認知服務的高級副總裁,他表示,當IBM對5000家企業進行人工智能使用調查時,82%的企業表示他們希望這樣做,但其中三分之二的公司表示他們不願意繼續,缺乏可解釋性被認為是接受的最大障礙。現在有60%的高管表示擔心人工智能的內部運作過於不透明,較2016年的29%有所上升。“他們在説,‘如果我要在承保風險或食品安全方面做出重要決策,我需要更多的可解釋性,’”肯尼説,他現在是尼爾森控股公司的首席執行官。
作為回應,軟件供應商和IT系統集成商開始宣傳他們能夠為客户提供有關人工智能程序思考方式的洞察。在12月初於蒙特利爾舉行的神經信息處理系統會議上,IBM的展位宣傳其基於雲的人工智能軟件提供“可解釋性”。IBM的軟件可以告訴客户算法在做出決策時最重視的三到五個因素。它可以追蹤數據的來源,告訴用户算法使用的信息片段來自何處。肯尼表示,這對於檢測偏見可能很重要。IBM還提供工具,幫助企業消除可能存在歧視的數據字段——例如種族——以及與這些因素密切相關的其他數據點,例如郵政編碼。
量子黑,一個幫助公司設計系統以分析數據的諮詢公司,在會議上宣傳其在創建可解釋人工智能方面的工作,並且有許多學術演講討論如何使算法更具可解釋性。埃森哲公司開始推廣“公平工具”,這些工具可以幫助公司檢測和糾正其人工智能算法中的偏見,德勤和畢馬威等競爭對手也在這樣做。谷歌,作為字母表公司的一部分,已經開始為使用其機器學習算法的人提供更好理解其決策過程的方法。在六月,微軟公司收購了 Bonsai,一家承諾構建可解釋人工智能的加州初創公司。Kyndi,一家來自加利福尼亞州聖馬特奧的人工智能初創公司,甚至註冊了“可解釋人工智能”這一術語,以幫助銷售其機器學習軟件。
人工智能算法決策的透明度與其有效性之間可能存在權衡。“如果你真的進行解釋,這將會影響模型的質量,”俄羅斯互聯網巨頭Yandex NV的首席技術官米哈伊爾·帕拉金説,該公司在許多應用中使用機器學習。“完全可解釋的模型集是一個有限的模型集,它們通常不夠準確。沒有辦法繞過這一點。”
帕拉金是那些擔心一些人工智能軟件供應商提供的解釋實際上可能比沒有解釋更糟糕的人之一,因為試圖將非常複雜的決策簡化為少數幾個因素時會失去許多細微差別。“這些工具中的很多隻是給你假裝的心理安慰,”他説。
字母表旗下的人工智能公司DeepMind與英國的摩菲爾德眼科醫院合作,開發了機器學習軟件,以與人類專家一樣的能力診斷50種不同的眼病。因為公司擔心醫生在不瞭解診斷建議背後過程的情況下不會信任該系統,所以選擇使用兩種算法:一種識別圖像中似乎表明眼病的區域,另一種利用這些輸出得出診斷。以這種方式分開工作使醫生能夠準確看到眼部掃描中導致診斷的內容,從而增強了他們對整個系統的信心。
“這種多模型方法在我們對最終決策所涉及的推理有足夠了解並能夠在這種推理上進行訓練的情況下,非常有利於可解釋性,”DeepMind的研究員Neil Rabinowitz説,他在可解釋性方面做過研究。但通常情況並非如此。
解釋還有另一個問題。“解釋或解釋的適用性取決於我們支持的任務,”俄勒岡州立大學的計算機科學名譽教授Thomas Dietterich在推特上指出。他寫道,試圖調試人工智能軟件的工程師的需求與使用該軟件做決策的公司高管所需瞭解的內容截然不同。“沒有一種普遍可解釋的模型。”