人工智能崛起引發算法偏見關注——《華爾街日報》
Isabelle Bousquette
偏見是人工智能算法長期存在的問題,部分原因是它們通常基於有偏差或不能完全代表服務羣體的數據集進行訓練。圖片來源:ERIC GAILLARD/REUTERS圍繞ChatGPT和其他生成式人工智能技術的熱潮凸顯了企業持續面臨的挑戰:如何避免自身AI算法中的偏見。
企業正投入大量時間和資金減少已部署算法中的偏見。科技領袖表示,從一開始就解決偏見問題比事後消除更容易且成本更低,但許多公司缺乏相關係統、流程和工具。
“這更多是一種被動而非主動的模式,“為聯合國提供人工智能諮詢的Neil Sahota在談及機構應對AI偏見的方式時表示。Sahota指出,這種被動模式代價高昂,因為追溯性消除偏見是一個極其困難且昂貴的過程。
他補充道:“企業不會額外投入1000萬美元去消除可能影響100或200人的一兩個偏見。”
Sahota表示,偏見是AI算法的老問題,部分原因是訓練數據存在偏差或不能完全代表服務羣體,部分原因是構建算法的人類本身存在固有偏見。
人工智能的問題在微軟公司二月份宣佈將對其採用ChatGPT技術的新必應搜索引擎實施新的使用限制時凸顯出來,此前用户報告稱在極限測試中出現了錯誤答案甚至有時失控的回應。
研究發現,AI系統在識別深膚色人羣(尤其是女性)面部時準確率較低;給予女性的信用卡額度普遍低於其丈夫;並且相較於白人,更可能錯誤預測黑人被告未來會犯罪。
審計税務諮詢公司畢馬威美國科技諮詢主管託德·洛爾表示,部分問題在於企業未將AI偏見控制納入軟件開發週期,而網絡安全領域已開始這樣做。
數據與分析公司律商聯訊風險解決方案全球首席信息安全官弗拉維奧·維拉努斯特指出,若企業在部署算法前預先解決偏見問題而非事後評估損害,相關問題將大幅減少。
維拉努斯特先生表示,當模型已存在偏見(尤其是複雜深度學習模型時),追溯特定答案的生成原因極具挑戰性。“這絕對困難,某些情況下甚至不可能——除非能從頭開始,用正確的訓練數據和架構重新設計模型。“他説道。
他表示,雖然像性別這樣可能引發性別偏見反應的變量很容易被剔除,但像身高這樣的變量看似不明顯,卻可能成為性別的替代指標,因為女性通常比男性矮。
Visa公司技術總裁拉杰特·塔內賈強調,企業必須重視從源頭解決偏見問題。
“人工智能的負責任倫理使用以及所需的治理與監督機制至關重要,“他説道,“正在推進AI應用的企業必須充分認識這一點,在起步階段就將其納入考量,因為後期追加調整將困難得多。”
塔內賈先生介紹,Visa在部署任何模型前,都會經過模型風險管理組織和專項團隊的評估,測試潛在意外影響並確保模型符合公司負責任AI倫理原則。
百事公司首席戰略與轉型官阿西娜·卡尼烏拉指出,更完善的防護機制和標準化框架或是解決方案之一。她透露百事正聯合多家大型企業建立行業框架體系,包含確保透明度、可追溯性及減少算法偏見的治理層。
卡尼烏拉博士表示,鑑於偏見風險過高,百事已避免在招聘決策等場景使用AI技術。
畢馬威的洛爾先生認為,更先進的算法偏見追蹤評估工具將大有助益。目前越來越多初創企業正提供相關AI管理解決方案:“這個市場正處於爆發臨界點,這些公司剛完成A輪融資,未來半年內我們將看到實際應用落地。”
寫信給伊莎貝爾·布斯凱特,郵箱:[email protected]