“人工智能”還是“智能人工”?外媒曝大量科技公司僱人扮AI
【文/觀察者網 陸雨聆】人工智能將徹底取代人類勞動力?
這一天也許離我們還很遙遠。本月,科技行業有個“不可告人的秘密”遭到外媒曝光:很多美其名曰“人工智能”的高科技,竟壓根就是真人手動操作的“智能人工”。

“智能人工”vs“人工智能 ”圖源:fossbytes網站
事情要從本月初説起。2日,《華爾街日報》在刊文曝出了一宗“谷歌郵件泄露”醜聞。為了優化客户服務體驗,谷歌郵箱(Gmail)竟允許上百家第三方App的開發人員瀏覽用户的電子郵件。
涉事公司之一,eDataSource的前CTO錫德·羅德(Thede Loder)表示,讓員工“偷偷”讀用户郵件的事,在數據服務行業中早已屢見不鮮。但是他解釋,這麼做是為了改進軟件算法,訓練AI系統,所以工程師們只是“偶爾看看”,也就是讓工程師“輔助”AI。
其他諸如Return Path 和Edison Software等軟件公司的説法,和羅德如出一轍。
事情在第二天便得到了谷歌的承認。但除了是否侵犯用户隱私外,字裏行間顯然還隱藏着另一個重要的問題:
為什麼讀郵件的都是人工?
這還沒完。英國《衞報》在6日繼續“吐槽”稱,讓人來“輔助”AI已經不錯了,以往還有很多更過分的“黑科技”。
2008年,英國一個自稱可以“自動將語音留言轉為文本短信”的SpinVox軟件,被人指控在南非、菲律賓等地設立了海外呼叫中心。
2016年,彭博社曝光美國創業公司X.ai(AI啊這公司名字就叫AI)推出的“人工智能私人助理Amy”,“後台”居然是一支不眠不休的人工團隊。Amy號稱可以幫用户完成會議安排和發送電子郵件等簡單任務,但受訪員工稱,自己需要每天工作12 小時,假扮虛擬助理完成一系列單調無聊到“令人麻木”的工作。

差不多就是這種感覺
去年,推出了企業費用管理App的跨國公司Expensify承認,他們一直使用人工來處理他們的主打產品“智能掃描技術”(SmartScan)的部分收據轉錄工作。他們只要將用户上傳的收據掃描,把照片發佈到亞馬遜的眾包平台上,那裏的工作人員便會將其手動抄錄下來。而且,這些人的薪水便宜得很。
“不知道Expensify的用户明不明白真相呢?我現在正在看着某人的Uber發票,上面寫着他的全名,以及出發地、目的地的地址”,接到活兒的羅謝爾·拉普朗特(Rochelle LaPlante)説道,他本人對這種“滿口謊言”的公司很是反感,現在根本不想用他們的產品。他透露,其實很多同行都有不同程度的牴觸情緒,“我們感覺自己被丟到幕後,勞動成果還被用來欺騙其他消費者。”
裝成翹楚好賺錢
隨後,《衞報》分析了這些科技企業對“偽人工智能”趨之若鶩的原因。
首先便是裝成行業佼佼者,吸引關注和投資,“這是他們不會告訴投資者和用户的秘密”。這其中又分兩種情況。一種是讓人類來協助已有的人工智能,比如牽涉到谷歌郵箱泄密的那些第三方App,再比如,美國有家叫Scale API的公司,僱了一大堆人幫自己的自動駕駛汽車校準傳感器。
再有便是對外假稱是AI技術,然後偷偷用人工代替,直到真的開發出這個AI之前,能混一天算一天。報道稱,真人雖然速度又慢,又不能批量處理任務,但畢竟便宜啊。
有趣的是,早在2016年,一家交互設計工具網站Readme的老闆格里高利·科貝格(Gregory Koberger)便在推特上用玩笑的口吻曝光了這個黑幕。

推特截圖
13日,《華爾街日報》再次評論了“偽人工智能”現象,稱其為**“機器學習”熱潮和“零工經濟”相結合的產物**。
真人扮AI不道德?AI扮真人更不道德
此外,《衞報》認為還有一個不那麼“功利”的原因。心理學家發現,**當用户以為自己面對的是機器人時,會更容易放下戒備。**一旦涉及敏感話題,這種情況就更加明顯。
再説回谷歌郵件事件,如果大家聽説郵件只是被機器人偷看了,牴觸情緒定然會比得知真相後小得多。
類似情形還存在於醫療問診中、來自南加大的研究團隊用他們開發的虛擬心理治療師艾莉(Ellie)做了一番測試。他們發現,患有創傷後應激障礙的退伍軍人只要發現艾莉是個AI,就老是會發病。
不過,這也引發了其他專家的擔憂。“這設計很綠野仙蹤呢”,心理學家、心理健康聊天機器人Woebot的創始人艾莉森·達西(Alison Darcy)道,“作為心理學家,我們需要遵循道德準則,不欺騙別人顯然應該是準則之一。”
(觀察者網注:《綠野仙蹤》的主角團隊裏,除了善良的小姑娘多諾茜,還有沒腦子的稻草人、沒愛心的鐵皮人和膽小的獅子——都不是人。)

《綠野仙蹤》裏的鐵皮人 圖源:《華爾街日報》
確實掌握AI技術的谷歌,也在早前意識到了這個倫理難題。而他們的解決方案是:
讓AI假裝自己是人類。
谷歌在5月初宣佈,“谷歌助手”(Google Assistant)的新功能Google Duplex會在打電話時加入“嗯”、“呃”之類擬人的象聲詞。但這一改動迅速遭到強烈反對,用户紛紛表示“這豈不騙得更厲害了”。
達西也對當時的設計很不滿,“萬一AI能模仿名人或政客的聲音,打出真假難辨的電話,那還得了?”
於是,谷歌隨後又做了改動,讓Google Duplex在對話一開始就自報機器人身份,加強AI技術“透明度”。
本文系觀察者網獨家稿件,未經授權,不得轉載。