今年七夕,我的機器人女友夢實現了嗎?_風聞
硅谷洞察-硅谷洞察官方账号-2019-08-08 09:22
硅谷Live / 實地探訪 /熱點探秘 / 深度探討
七夕節到了,小探作為單身汪已經在朋友圈吃狗糧吃到飽,沒有男友、女友怎麼辦?大家要不要考慮找AI“談個戀愛”呢,比如跟你的Siri談談心,讓他(它)陪你看場電影?
(電影《機械姬》,圖片來自網絡,版權屬於原作者)
近年來,隨着AI技術的成熟與深入,機器人的情感問題正逐漸成為人們關注的焦點。
不知道你們是不是也跟小探一樣,看《超能陸戰隊》的時候,好想擁有一個大白。看《鋼鐵俠》的時候,好想擁有一個賈維斯。看到《終結者》時又覺得,機器人好可怕啊。看到《西部世界》時又覺得,機器人們好慘啊。
對待AI,一會充滿期待一會有些懼怕一會心生憐憫,小探經常在內心問自己,如果人工智能真的有感情了,我將如何與他(它)共處?
(圖片來自網絡,版權屬於原作者)
機器人真的能有情感嗎,這些情感如何產生,又能應用在哪些方面呢?帶着對人工智能情感技術(Emotional AI technology)的好奇,硅谷洞察(原硅谷密探)採訪了一家在此領域的美國初創企業Emoshape,跟CEO Patrick Levy-Rosentha一起聊了聊關於情感智能的一些事。
人工智能的情感研究正在“雙向推進”
早在1997年,MIT媒體實驗室的Rosalind Picard教授就提出了情感計算(Affective computing)概念,她認為,人類的許多決策是有大量情感因素介入的,所謂絕對理性的決策很多時候並不最優,也缺乏人性。隨着AI在人類日常中應用的深入,如果我們希望計算機真正智能並與我們自然交互,我們必須讓計算機能夠識別、理解、甚至表達情感。
對於情感計算,Patrick向小探表示,Picard教授的研究主要關注於人工智能如何通過人類的表情、肢體動作等來識別人類的情感,而Emoshape目前的關注重點是如何讓機器對周邊的環境進行判斷從而產生自己的情感。
意思是,**除了識別人類的“喜怒哀樂”,機器人也要有自己的“喜怒哀樂”。**這不僅僅只是情感計算,而是屬於情感智能的範疇。
關於情感智能,在2006年,MIT的Marvin Minsky教授曾出版了一本名為《The Emotion Machine(情感機器)》的專著,他認為,人的思維可以分解為一系列具體行動,從情緒狀態到目標和依戀,再到意識和自我意識。而一旦我們理解了人的思維,我們就可以讓機器遵循我們相同思維模式,並且可以像我們一樣思考,進而來幫助我們思考。
(《情感機器》封面,圖片來自網絡,版權屬於原作者)
Patrick表示,未來人類的活動與AI的關係將越來越緊密,從語音助手到智能玩具再到智能家居,人們的衣食住行都將會與AI密不可分。“可能以後人們都更多的跟自己的機器人玩而不是跟人玩”,而一個能有自我情感的人工智能,將會滿足人們更多個性化的需求,人類與機器將產生更緊密、更高效的互動。
“比如未來你有隻機器人小狗,以後你可能把它當成小狗而不只是機器了,因為你的機器寵物具有情感個性並且能瞭解你的感受。”
Patrick認為,這個場景在我們這個時代就能實現。
情感智能將讓AI“獨一無二”
現在的技術真的能夠實現情感智能嗎?又將從哪些維度進行計算呢?
Partick告訴我們,他們公司目前的兩款芯片產品,EPU(Emotional processing unit)和aRadar將在一定程度上能夠讓機器實現感情化。EPU芯片可以安裝在機器人或電子設備中,進而使人工智能能對事物實現獨特的情緒反應,目前能夠實現包括憤怒,恐懼,悲傷,厭惡,冷漠,後悔,驚訝,期待,信任,信心,慾望和喜悦在內的12種基本情緒****。
(圖片來自Emoshape官網)
EPU 將允許人工智能體驗64萬億個情緒狀態,並將這些狀態存儲在EPU存儲庫中,隨着你與人工智能互動的增多,通過其內置的情緒計算頻率架構(ECFA)以及情緒輪廓圖(EPG)計算功能,人工智能將自動創造出完全獨特的個性,這意味着將來相同的設備可能具有完全不同的個性,而達到此效果,只需要6個月左右的人機互動時間。
舉個簡單的例子,我和你都買了一部iPhone,同時開始使用Siri,6個月後,我們問Siri同樣的問題,他將根據這六個月來對我們的瞭解做出不同的回答,你將擁有這個世界上屬於你的、獨一無二的Siri!想想小探還有些小期待。
目前,Emoshape已經將EPU應用在了機器人身上並給她取名為Rachel, 芯片可以實時控制Rachel的不同面部微表情和肢體語言。
(Emoshape的機器人Rachel,圖片來自Emoshape官網)
如何才能實現情感智能?
首先,情緒識別是情感智能的基礎。
人類表達情緒的方式有很多,其中最自然的表達方式是使用面部表情和肢體動作。著名心理學家Paul Ekman是研究情緒和麪部表情的先驅,他曾開發了一套“面部動作組織系統”(FACS)來將每個人的表情分類,通過不同面部表情的特徵組合,將其映射到不同的情緒類別之中。除了表情之外,研究表明,人類的語音語調以及文字表達也能傳遞出不同的情緒。
(不同面部表情識別出的不同情緒,圖片來自網絡,版權屬於原作者)
Patrick表示,目前EPU芯片能夠完成表情、語音和文本的檢測,但與此同時他們也發現,這些檢測在準確性方面也存在侷限性,因為**面部表情或是語音、文字可能具有欺騙性,**比如微笑並不一定能反映一個人是否真的感到快樂。因此他們開發了一個基於心跳感知的產品aRadar來平衡現有情緒檢測技術的缺點。
aRadar通過一種名為頻率調製載波的雷達技術,利用24 GHz無線信號從人體反射,同時消除靜態物體和其他人影響,能夠高精度地捕捉人們的呼吸和心跳, 通過分析心跳間隔的微小變化,來確定其喚醒積極情緒的水平**。**
Patrick説,通過比較研究表明,aRadar在檢測快樂、悲傷和憤怒方面更為準確,因此他們將aRadar和EPU結合使用,以提高情感識別的準確度。
接着, EPU通過模擬人腦對信息的反饋機制,將大量蒐集來的數據進行長期、反覆計算,通過情感合成讓人工智能虛擬地“感受”諸如快樂和痛苦之類的感覺,並根據不同用户來“表達”這些情緒。Patrick説,EPU的學習曲線會隨着時間的推移而減少,就像人類情感一樣,情緒的早期體驗是長期情緒發展的關鍵。
情感智能將廣泛的應用於自動駕駛、遊戲等領域
那麼,如果人工智能有情感了,將會對哪些領域帶來改變呢?
Patrick認為,情感智能的市場應用將隨着AI技術的普及而逐步擴大,它可以廣泛的被應用於自動駕駛、機器人、虛擬現實、物聯網、醫療、廣告等各個消費電子領域,其主要作用包括人機交互、情感語音合成、情感推理、機器情感親密、機器學習等。
以自動駕駛為例,在未來無人駕駛的情景裏,汽車不僅能識別你的情緒狀態進而幫你調整行駛狀態,還能夠為車上的乘客營造不同的乘車氛圍,跟乘客產生不同的互動。這也就是説,以後我們乘坐的車可能都會有不同的“個性”,那麼,你會選擇上一輛“温柔”的車還是上一輛“狂野”的車呢?
(圖片來自網絡,版權屬於原作者)
而在遊戲領域,不同於過去遊戲裏NPC(非玩家角色)的趨同性和固定性,情感智能的應用將讓NPC更加的“類人”,讓NPC根據不同的玩家產生不同的情緒和反饋,給玩家帶來更多的遊戲樂趣。
而在當前在一些遊戲中,這種情感智能已經開始在初步應用,在“模擬人生3”中,設計者就允許讓NPC自己決定如何行動,並表現出具有情感、信念等行為,比如,當玩家侮辱他們的同伴時角色會變得憤怒,或者當同伴遭受侵犯的時會表現出同情。
今年5月,中國首家專業遊戲AI研究機構“伏羲實驗室”也曾發佈利用“虛擬人”技術製作的手遊,**“**虛擬人”是一套可以通過語言,面部表情,動作,甚至眼神來和人類進行實時面對面交流的人工智能系統,它可以像人類一樣表達意圖和情感,也可以理解人類的語言,行為和情感。雖然虛擬人技術依然處在早期探索中,但除了遊戲之外也有無限的可能和落地方式,比如虛擬偶像、虛擬主播、虛擬導購等等。
(遊戲模擬人生3,圖片來自網絡,版權屬於原作者)
據瞭解,Emoshape也將在9月發佈一款針對遊戲行業的新消費產品EEE(ExoLife Emotion Engine)以及兩個適用於遊戲行業的智能情感感知的新插件,遊戲開發人員通過使用新插件將可以創造出具有情商和個性發展的自我動畫角色,使遊戲變得有感情並且能夠在情感上給以回應。
除此之外,Patrick表示,情感智能還將深化或改變我們與人工智能之間的關係。因為機器人在與人相處的過程之中,將發展出自己獨特的個性、學習與人類互動,這或將改變人們對待機器的方式,進而給機器人行業帶來新的商機。目前Emoshape也正在與專門研究機器人寵物的亞洲製造商接洽,在不久的未來,可能會出現真的如同寵物一般給予我們愛與陪伴的機器人。
但是,Patrick也告訴小探,目前他們的研究只是希望**讓機器人具有情感(emotion)而不是讓他們有人格(personality),**他們在開發過程中實施了一項“人工智能希望體驗更多的快樂避免痛苦”的準則,讓人工智能能夠主要產生積極的情緒。
説起人機交互,小探不由想起了以前看的一部科幻電影《她》,講述了一場“宅男與人工智能的虐戀”。隨着科技的發展,越來越多的人卻變得越來越孤獨,人們越來越多的希望能在虛擬世界裏找到“共鳴”、甚至找到關懷與愛。
(電影《她》,圖片來自網絡,版權屬於原作者)
如果技術的進步真的能讓機器懂得思考,擁有“共情”的能力,那麼,你會把他(它)當作機器,還是當作“人”呢?想跟AI“談個戀愛”嗎?歡迎大家留言討論。