“不作惡”的谷歌——谷歌AI武器化項目引發爭議_風聞
魔都7580-观网潜水员,不定时上浮2018-06-01 09:39

據美國媒體報道,本月谷歌與美國五角大樓合作的Maven項目曝光,導致該公司一些職員抗議和辭職。現在谷歌表示將制定指導其參與軍事項目的道德政策。《紐約時報》稱,谷歌的政策將明確禁止在武器中使用人工智能(AI)。
谷歌發言人表示,在圍繞國防和AI合同制定的“一系列原則”上,公司考慮了職員的意見,公司CEO桑德爾·皮查伊在全公司大會上承諾制定“經得住時間考驗”的“指導方針”。該政策的細節預計在幾周內宣佈。《紐約時報》獲得的內部交流郵件顯示,在谷歌高管中Maven項目成為熱烈爭論的話題。
去年9月谷歌國防和智能銷售主管斯科特·福羅曼、谷歌雲首席科學家和斯坦福AI實驗室主管李飛飛都對由此可能帶來的反衝力表達了擔憂。李飛飛寫到:“AI武器化是AI話題中最敏感的一個,這是媒體攻擊谷歌的最好素材。”李飛飛是教育AI的公開支持者,她與梅琳達·蓋茨、英偉達創始人黃仁勳一起創辦了輔導課程AI4All,招募高中生研究將機器學習應用到解決人道危機中的項目。
谷歌決定不公開參與Maven項目,但職員內部卻展開了爭論。一位辭職的工程師將一個會議室更名為克拉拉·伊墨瓦爾(為抗議將科學用於戰爭在1915年自殺的德國化學家)。谷歌在倫敦的子公司DeepMind的高管,包括創始人穆斯塔法·蘇雷曼,與皮查伊和其他股東討論了有關Maven項目的政策問題。負責谷歌AI研究的傑夫·迪安在反對將機器學習用於自動武器的公開信上簽名。
在谷歌參與Maven項目新聞爆出後不久,谷歌雲的CEO戴安娜·格林與谷歌創始人塞爾蓋·布林一起回答了相關問題。隨着公司內部抗議非常強烈,格林決定舉辦圓桌會議,討論谷歌參與Maven項目性質和使用AI道德問題。谷歌副總裁和著名的前國防部研究員温特·瑟夫、谷歌AI研究員梅雷迪斯·惠塔克參加了談論,並向全球谷歌職員直播。但這不能消除職員的擔憂,他們感覺谷歌違背了**“不作惡”**的核心座右銘。
國際機器人武器控制委員會(ICRAC)曾發佈一封公開信,發佈後數小時內,已有超過 300 名人工智能、倫理學和計算機科學領域的學者聯名,公開呼籲谷歌結束其對 Maven 項目的支持,轉而支持禁止自主武器系統的國際條約。
這封信的兩位作者彼得·阿薩羅(Peter Asaro)和露西·蘇希曼(Lucy Suchman)曾在聯合國就自動武器問題作證,第三位作者 Lilly Irani 是一位科學教授、前谷歌員工。蘇希曼表示,谷歌對 Maven 項目的貢獻完全可能加速全自動武器的開發。雖然谷歌總部位於美國,但它有義務保護全球用户羣,而不是與任何一個國家的軍隊結盟。
在這封支持谷歌員工的公開信中,他們是這樣説的:
儘管 Maven 項目的報告目前強調了人類分析師的作用,但這些技術有望成為自動目標識別和自主武器系統的基礎。隨着軍事指揮官們將目標識別算法視為可靠,它將會吸引人們對這些系統進行減弱甚至消除人為審查和監督。據國防部稱,國防部已經計劃在無人機上安裝圖像分析技術,包括武裝無人機。然後,我們距離授權自動無人機自動殺人,而不需要人工監控或有意義的人員控制,只需要一小步。科技公司的道德行為需要考慮誰可能受益於技術而誰又可能受到傷害。我們也非常擔心 Google 可能將人們日常生活的數據與軍事監控數據整合在一起,並將其與有針對性的殺戮結合起來應用。谷歌已經進入軍事工作,無需在國內或國際上進行公開辯論或審議。雖然谷歌在沒有民主公眾參與的情況下經常決定技術的未來,但其加入軍事技術會將信息基礎設施的私人控制問題變得突出。如果谷歌決定將全球互聯網用户的個人數據用於軍事目的,那麼它將侵犯公眾的信任,因為它將用户的生命和人權置於危險之中,這對其業務至關重要。
像谷歌這樣的跨國公司,其責任必須與他們的用户的跨國化相匹配。根據谷歌所考慮的國防部合同,以及已經在微軟和亞馬遜上籤訂的類似合同,都標誌着私人科技行業之間的危險聯盟,這個聯盟目前擁有大量來自全球各地的敏感的個人數據,以及一個國家的軍隊。它們還表明,未能與全球公民社會和外交機構進行接觸,這些機構已經強調了這些技術的道德風險我們正處於關鍵時刻。劍橋分析公司 (Cambridge Analytica) 的醜聞表明,公眾越來越擔心科技行業將擁有如此大的權力。這使得信息技術基礎設施的風險越來越高,以及當前國家和國際治理框架的不足以維護公眾的信任。這種情況比從事裁決生命和死亡的系統更為真實。