《華爾街日報》——兒童視角下的智能機器
Alison Gopnik
心理學家艾莉森·高普尼克探索人性科學的新發現。閲讀往期專欄請點擊這裏。
為何人們如此輕易地將機器——尤其是像ChatGPT這樣的人工智能系統——視為具有意圖、情感甚至道德的存在?一項新研究表明,這種傾向可能根深蒂固:幼童認為掃地機器人Roomba或智能音箱Alexa擁有思想感情,應當被當作人類同伴對待。
曾經看似神奇的"智能"機器如今無處不在。數百萬孩子在Roomba掃地機器人的陪伴下長大,看着它在家中靈活避障、鑽入角落;更多孩子從小禮貌地對着名為Alexa的小盒子點播最愛的歌曲或電視劇。孩子們如何看待家中這些精密的計算機?(當然,一旦進入家庭,我們往往會忘記它們是精密計算機。Roomba發明者、計算機科學家羅德尼·布魯克斯常調侃説,自己最初只是麻省理工學院人工智能實驗室主任,後來"高升"成了吸塵器推銷員。)
Roomba和亞馬遜Alexa特別值得玩味之處在於:它們既無人形外觀(沒有面部或身體),其擬人化行為又呈現截然相反的形態——Roomba能自主移動完成清潔任務但不會説話,Alexa能對答如流卻無法移動。
杜克大學的塔瑪·庫什尼爾與她的學生特蕾莎·弗拉納根、加文·王研究了兒童對這些科技的認知,相關成果發表於《發展心理學》期刊。他們向127名4至11歲兒童展示了Roomba和Alexa等不同科技產品的實際運作,隨後通過問卷調研孩子們對這些機器的思想、情感及道德地位的看法。
大多數孩子已經對Alexa和Roomba很熟悉了。他們告訴研究人員,這兩者更像電腦而非人類。但尤其是年幼的孩子們認為即使是這些看似簡單的機器——一個圓形吸塵器和一個黑盒子——也可能擁有思想和情感:它們可能會感到飢餓、發癢或獨立思考。
機器的交互方式產生了差異,尤其是在涉及高級心理功能時。孩子們表示,健談的Alexa比沉默的Roomba更有可能擁有思想或分辨是非。但他們認為兩者都可能感到飢餓或怕癢。年幼的孩子還認為這兩種機器都可能選擇傷害他人:Roomba可能會故意碾過你的腳趾,或者Alexa可能會説些傷害你感情的話。
年齡較大的孩子不太可能説機器有情感或經歷,或者它們是有意行動的。這可能是因為孩子們在思考能動性方面變得更加成熟,或者因為他們對機器的侷限性有更多瞭解。但即使是年齡較大的孩子也認為機器可能有一些思想和情感。引人注目的是,無論年齡大小,孩子們都認為打罵機器是錯誤的。一個10歲的孩子説:“那樣機器人會非常難過。”
這項研究可能有助於解釋為什麼人們如此容易將AI系統視為有意識的存在——這是一種早期、自然的直覺。我們似乎特別容易對那些使用語言的系統產生這種感覺,儘管像Roomba這樣在現實世界中實現目標的能力可能才是智能的真正標誌。或許這項研究中人與技術關係最好的消息是,孩子們認為將機器視為有意識的存在意味着要善待它們。
出現在2023年5月13日的印刷版中,標題為《孩子眼中的智能機器》。