谷歌從其公開AI原則中刪除了關於武器的表述(GOOGL)——彭博社
Julia Love, Olivia Solon, Davey Alba
Alphabet旗下谷歌公司從其人工智能原則中刪除了一段承諾避免將該技術用於武器等潛在有害應用的條款。
根據彭博社查看的截圖,該公司此前的人工智能原則包含名為"我們不會開發的AI應用"章節,其中明確列出"可能導致整體傷害的技術(包括武器)"。相關表述目前已從頁面上消失。
針對置評請求,谷歌發言人提供了週二發佈的博客文章作為回應。
谷歌高級副總裁詹姆斯·馬尼卡與DeepMind實驗室負責人德米斯·哈薩比斯在文中表示:“我們相信民主國家應以自由、平等和人權等核心價值觀為指導引領AI發展。秉持這些價值觀的企業、政府與組織應共同開發生態保護人類、促進全球增長並支持國家安全的AI技術。”
前谷歌AI倫理團隊聯合負責人、現Hugging Face首席AI倫理科學家瑪格麗特·米切爾指出,刪除"傷害"條款可能預示谷歌未來工作方向的變化。
“刪除該條款等於抹殺了倫理AI領域活動人士和谷歌內部員工的努力成果。更嚴重的是,這意味着谷歌現在可能直接開發能致人死亡的技術部署。“她表示。
這一變化是大型科技公司政策更廣泛調整的一部分。今年1月,Meta Platforms Inc.解散了其多項多元化與包容性計劃,告知員工不再需要為空缺職位面試來自代表性不足背景的候選人。同月,亞馬遜公司暫停了部分多元化與包容性項目,一位高級人力資源主管稱這些項目"過時”。特朗普政府曾對多元化倡議表示反對。
特蕾西·皮佐·弗雷曾在2017至2022年負責谷歌雲"負責任AI"項目,她表示AI原則指導着團隊日常工作。“這些原則要求我們深入審視在每個領域的工作,“她在留言中表示,“我堅信這讓我們的產品變得更好。負責任AI是建立信任的基石,而信任是成功的必要條件。”
谷歌員工長期爭論如何在AI領域平衡倫理考量與競爭壓力,特別是在OpenAI推出ChatGPT給這家搜索巨頭帶來挑戰後。2023年,部分谷歌員工向彭博社表達擔憂,認為公司為奪回AI優勢導致倫理失範。