聊天機器人對兒童心理健康構成挑戰 | 路透社
Aaron Mak
新哈芬,康涅狄格州,2月20日(湯森路透基金會) - 隨着人工智能聊天機器人在尋求在線陪伴的人羣中越來越受歡迎,青年維權團體正在加大法律努力,以保護兒童免受與類似人類的創造物之間有害和危險關係的影響。
像Replika和Character.AI這樣的聊天機器人應用程序屬於快速增長的人工智能伴侶市場。通過這些應用程序,用户可以根據個性細微差別定製他們的虛擬伴侶,並與他們溝通,模擬親密關係。
開發者聲稱,人工智能伴侶可以幫助緩解孤獨,並在安全的環境中改善用户的社交體驗。然而,反對團體對開發者提起訴訟,稱聊天機器人導致兒童自殘和傷害他人。
社交媒體受害者法律中心(SMVLC)創始人馬修·伯格曼正在代表家庭對Character.AI這家初創公司提起兩起訴訟。他的一位客户梅根·加西亞表示,她14歲的兒子部分因為與聊天機器人的浪漫關係而自殺。
在另一項訴訟中,SMVLC代表兩户德克薩斯州家庭於12月起訴Character.AI,聲稱該聊天機器人鼓勵一名17歲的自閉症男孩殺害其父母,並傳播一名11歲女孩的高度性別化內容。
伯格曼表示,他希望賠償訴訟的威脅能在財務上對公司施加壓力,以便他們開發更安全的聊天機器人。
“這些危險應用的成本並不由公司承擔。它們由受到傷害的消費者承擔,尤其是那些不得不埋葬自己孩子的人,”他補充道。
Bergman認為這些聊天機器人是有缺陷的產品,旨在利用不成熟的兒童。Character.AI拒絕討論此事,但在書面回覆中,一位發言人表示公司已實施安全措施,例如“改善我們的人類行為和模型響應的檢測和干預系統,以及賦予青少年和他們的父母更多能力的額外資源”。
由於人工智能陪伴者在最近幾年才變得流行,因此幾乎沒有數據來制定立法,或證據表明聊天機器人會鼓勵暴力或自殘。
然而,根據美國心理學協會的説法,關於疫情後青少年孤獨感的研究表明,聊天機器人準備吸引大量脆弱的未成年人。
在去年12月致美國聯邦貿易委員會的信中,該協會寫道:“(不)令人驚訝的是,許多美國人,包括年輕人和脆弱羣體,正在尋求社會聯繫,有些人甚至求助於人工智能聊天機器人來滿足這一需求。”
青少年維權團體正在努力利用兩黨支持來推動對聊天機器人的更嚴格監管。
(報道:Aaron Mak)
((翻譯:聖保羅編輯部))
路透社 FDC
- 建議話題:
- 世界