谷歌CEO:製造一個種族主義、性別歧視的AI非常容易
【文 觀察者網/趙挪亞】
過去一年時間裏,AI(人工智能)的倫理問題成為了各個互聯網企業和各國政府討論焦點之一,前有谷歌先後成立、取消AI道德委員會,後有歐盟公佈AI道德準則,這一新興技術在社會應用上的倫理規範尚需討論。
不過,儘管谷歌一再強調AI的道德問題,但旗下的YouTube卻曾在“巴黎聖母院大火”時,因AI算法引起爭議,而他們設立的AI道德委員會也只持續了兩週不到即告解散。
在5月8日凌晨舉行的2019谷歌I/O開發者大會上,美國搜索引擎巨頭陸續公佈了新版的視覺化搜索系統、谷歌智能助手以及安卓系統,AI成為了貫穿整場大會的主題,而作為這一技術使用的前提,谷歌CEO桑達爾·皮查伊(Sundar Pichai)稱他們正在努力解決人工智能的偏見問題。

谷歌I/O大會
在會上,皮查伊稱憑藉現有的機器學習和算法,要製造一個種族主義、性別歧視的AI非常容易。他表示,現有的AI機器學習本質上依靠的還是大量數據的輸入,因此這些數據的公正性,將很大程度上左右AI在種族和性別問題上是否具有偏見。
皮查伊以谷歌旗下的AI算法舉例:“如果你想用該技術來建立一個可以識別醫生形象的AI模型,但卻一直給它輸入‘穿白大褂、帶聽診器’的男性照片,那麼最終這一AI將很可能認定,男性是識別醫生照片的重要元素。”
而在另一個例子中,皮查伊也提到,AI算法可以用在鑑別皮膚癌的領域。但如果在訓練階段,研究人員一直給其輸入同種膚色的皮膚癌照片,卻遺漏了其他膚色,那麼最終這一AI也將在診斷時出現誤判。
皮查伊表示:“僅僅知道AI模型有效是不夠的,我們必須知道它如何運作。早在機器學習出現之前,偏見就一直是科學界關注的問題。(在這個問題上)AI的風險顯然更高。”
為此,谷歌提出了兩個解決方案。其中之一,就是一種被稱為TCAV(使用概念激活向量進行測試)的技術,它可以確定機器學習系統在做決定時,相關概念和數據在機器學習系統中的權重有多少,從而更好理解AI算法的邏輯。其次,皮查伊還提出,將會把部分開放數據分享給其他公司和AI技術人員,以此幫助更多人。
在最後總結階段,谷歌舉了一些例子説明了AI給社會帶來的各種進步。比如,藉助AI來算出患者的患病趨勢,降低患者的死亡率;用AI預測洪水,龍捲風等災害性天氣。
儘管如此,谷歌的AI技術還是為他們引來了不少爭議。
據《今日俄羅斯》4月16日報道,在“巴黎聖母院”大火期間,YouTube平台上部分新聞直播下方的信息欄(Info Box)內,出現了有關“911恐怖襲擊”事件的説明,此事也引來了眾多網友的批評,認為YouTube此舉可能助長“陰謀論”的出現。

據截圖顯示,在France 24的直播視頻下方,出現了“911恐襲”的説明
對此,谷歌發言人解釋:“我們對巴黎聖母院的大火感到十分難過,但這些信息欄都由算法自動生成,有時候系統會出錯。我們已經關閉了這些直播視頻下方的信息欄。”
今年3月26日,谷歌宣佈成立人工智能道德委員會,即先進技術外部諮詢委員會,希望通過哲學家、工程師和政策專家組成的團隊幫助解決人工智能帶來的道德風險。
而到了4月4日,由於谷歌內部員工不滿委員會成員凱·詹姆斯(Kay James)和戴安·吉本斯(Dyan Gibbens)的政治傾向,再加上耐基梅隆大學學者亞歷山德羅•阿奎斯蒂(Alessandro Acquisti)教授的批評,谷歌宣佈取消人工智能道德委員會。
除了谷歌以外,歐盟也於4月8日公佈了人工智能道德準則,並要求“值得信賴”的AI應當滿足包括“人類監督”、“技術安全”、“多樣性和公平性”以及“透明性”在內的7個條件。

歐盟的AI道德準則
不過有部分研究者懷疑,歐盟制定的人工智能道德準則,將會影響到這一產業的未來發展。
智庫機構數據創新中心(Center for Data Innovation)的高級政策分析師艾琳·奇沃特(Eline Chivot)4月8日在接受The Verge採訪時説:“歐盟希望通過制定道德標準,來確定自身在全球AI發展中的地位,我們對這種方法持懷疑態度。要成為AI倫理的領導者,首先你必須在AI領域遙遙領先。”
本文系觀察者網獨家稿件,未經授權,不得轉載。