將人類偏見從我們的機器中去除的數字活動家 - 彭博社
Arianne Cohen
插圖:薩姆·克爾當喬伊·布奧拉姆維尼9歲時,她看到了一部關於Kismet的電視紀錄片,這是一種由麻省理工學院建造的社交機器人,可以進行面對面的互動。對這位年輕的未來科學家來説,這項技術簡直是魔法。她被迷住了,並決心去理解它。
但在2010年,當她還是喬治亞理工學院的本科生時,布奧拉姆維尼遇到了一個算法障礙。“為了讓社交機器人能夠與人類社交,它必須能夠檢測到那個人的臉,”她説。她在課堂上實驗的機器人能夠檢測到她室友的淺色皮膚的臉,但無法檢測到布奧拉姆維尼的。第二年,在香港的一個實驗室裏,這種情況再次發生。“我心想,你知道,我以為這個問題現在應該已經解決了,”她説。
彭博社商業週刊沒有被監禁的人。尋求庇護者佔據了拜登承諾關閉的監獄美國正在用尋求庇護者填滿臭名昭著的前監獄大學橄欖球需要向大聯盟學習一課那些銷售比職業選手更多棒球棒的網紅兄弟們快進六年,經過麻省理工學院和牛津大學的學位,她在羅德獎學金的支持下就讀,並在贊比亞獲得了富布賴特獎學金。布奧拉姆維尼現在是算法公正聯盟(AJL)的創始人,這是麻省理工學院媒體實驗室的一個倡議,旨在讓人們意識到看似中立的計算過程中的微妙偏見。如今,大多數人工智能系統需要在大型數據集上進行訓練,因此如果你的面部識別數據主要包含白人面孔,那麼你的程序就會學習識別這些面孔。程序員們通常在代碼庫中分享他們的工作,這意味着一個有偏見的算法可以輕易地從亞特蘭大傳播到香港。
Buolamwini 為機器偏見問題提供了急需的人性化視角,Solon Barocas 説,他負責公平、問責和透明度在機器學習中的研究,這是學術界在該主題上的首要會議。“這個領域可能非常理論化,但 [Buolamwini] 真的讓人感受到經歷這種偏見的可能性。那些使用這些技術的公司可以預期,除非他們充分關注這些問題,否則偏見將會發生。”
AJL 正在早期階段開發工具,以幫助編碼人員檢查面部識別、醫療診斷、大數據分析和其他系統中的偏見。例如,一個評估信用worthiness的模型可能會部分基於申請人的郵政編碼來評估抵押貸款申請人——這是一個客觀的數據點,但仍然反映了根深蒂固的歧視。Buolamwini 的 2016年11月的TEDx演講 自TED在3月發佈以來,已經獲得超過695,000次觀看,而在1月,她擊敗了7,300名申請者,贏得了由21世紀福克斯(製作了電影 隱藏人物)、百事公司和紐約科學院創建的“尋找隱藏人物”專業資助。她的抱負依然很大。“我們正在使用面部分析作為一個典範,展示我們如何在第一時間包含更多包容性的訓練數據,”她説。“這些基準可以廣泛應用。”