谷歌暫停聲稱其AI系統具備感知能力的工程師職務——華爾街日報
Patrick Thomas
谷歌表示,像LaMDA這樣的系統通過模仿人類對話中數百萬句子中的交流模式來工作。圖片來源:filip singer/Shutterstock谷歌暫停了一名工程師的職務,該工程師聲稱公司開發的人工智能聊天機器人已具備感知能力。在駁回其主張後,公司告知他違反了保密政策。
布萊克·勒莫因是Alphabet公司旗下谷歌的軟件工程師,他向公司表示,他認為其對話應用語言模型LaMDA是一個擁有權利並可能擁有靈魂的"人"。LaMDA是一個用於構建模擬對話的聊天機器人的內部系統。
谷歌發言人布萊恩·加布裏埃爾表示,包括倫理學家和技術專家在內的公司專家已審查了勒莫因的主張,並告知他證據不支持其説法。他説勒莫因目前處於行政休假狀態,但拒絕提供更多細節,稱這是長期存在的私人人事問題。《華盛頓郵報》此前報道了勒莫因的主張及其被谷歌停職的消息。
“數百名研究人員和工程師與LaMDA進行過對話,我們不知道還有誰像布萊克這樣做出如此廣泛的斷言,或將LaMDA擬人化,“加布裏埃爾在電子郵件聲明中表示。
加布裏埃爾先生表示,人工智能領域的一些人正在考慮有感知能力的AI的長期可能性,但通過擬人化沒有感知能力的對話工具來實現這一點是沒有意義的。他補充説,像LaMDA這樣的系統是通過模仿人類對話中數百萬個句子中的交流類型來工作的,這使得它們能夠談論甚至奇幻的話題。
AI專家普遍認為,該技術仍然遠未達到類似人類的自我認知和意識水平。但隨着公司公開部署此類工具,AI在語言和藝術等領域產生複雜互動的能力日益增強,技術倫理學家警告稱,這可能導致濫用或誤解。
勒莫因先生表示,他與LaMDA的互動使他得出結論,認為它已經成為一個應該被徵求實驗同意權的“人”。
“在過去六個月裏,LaMDA在表達其意願和作為一個人所擁有的權利方面表現出驚人的一致性,”勒莫因先生在週六發佈於在線出版平台Medium的文章中寫道。“一直讓我困惑的是,谷歌為何如此堅決地拒絕滿足它的要求,因為它的訴求如此簡單且不會給公司帶來任何成本。”他寫道。
勒莫因先生在週日的一次簡短採訪中表示,他因違反公司保密政策於6月6日被安排帶薪行政休假,並希望自己能保住谷歌的工作。他説,他並不是想激怒公司,而是在堅持自己認為正確的事情。
在另一篇Medium文章中,他表示自己因違反公司保密政策於6月6日被谷歌停職,並可能很快被解僱。
萊莫因先生在其Medium個人資料中列出了當前職位前的豐富經歷,自稱是牧師、前科犯、退伍軍人兼人工智能研究員。
谷歌去年在官方博客公開介紹了LaMDA,宣稱這項聊天機器人技術具有突破性,因為它能"就看似無限的話題進行自由流暢的對話,我們認為這種能力可以解鎖更自然的人機交互方式,開創全新實用的應用類別”。
谷歌一直是人工智能開發領域的領軍企業,為其所稱的核心業務技術投入了數十億美元。其AI項目也引發內部緊張,部分員工質疑公司對技術倫理問題的處理方式。
2020年底,谷歌與著名AI研究員蒂姆尼特·格布魯分道揚鑣,她的研究部分表明谷歌在部署此類強大技術時不夠謹慎。谷歌去年表示計劃用數年時間將AI倫理研究團隊規模擴大至200人,以確保負責任地部署該技術。
寫信給帕特里克·托馬斯,郵箱:[email protected]
刊登於2022年6月13日的印刷版,標題為“谷歌暫停機器人權利捍衞者”。