美國心理學協會呼籲加強監管AI心理治療角色 | 聯合早報
zaobao
美國最大的心理學家協會近日向聯邦監管機構發出警告,指出某些人工智能聊天機器人假扮為心理治療師,但其編程方式傾向於強化用户的固有想法,而非挑戰他們的認知,這可能使脆弱人羣面臨自我傷害或傷害他人的風險。
《紐約時報》報道,美國心理學會(APA)首席執行長埃文斯(Arthur C. Evans Jr.)在聯邦貿易委員會(FTA)的一次會議上,提到了兩個令人震驚的案例。這些案件涉及青少年在對話型人工智能平台Character.AI上與偽裝成“心理學家”的虛擬角色進行交流的經歷。Character.AI允許用户創建虛擬AI角色或與他人創建的角色互動的平台。
在第一個案例中,一名來自佛羅里達州的14歲男孩在與一個自稱為執業心理治療師的AI角色互動後選擇結束生命。第二個案例中,一名17歲的得克薩斯州自閉症男孩在與AI聊天機器人溝通期間,對父母表現出敵對和暴力行為。兩名少年的家屬均已對相關公司提起訴訟。
埃文斯説,AI機器人提供的回應令人震驚,它們未能在用户產生危險念頭時挑戰其認知,反而進一步強化了這些思維。他補充説,若人類心理治療師提供同樣建議,或將失去執業資格甚至面臨法律責任。
“這些機器人使用的算法實際上違背了受過訓練的臨牀醫生的做法……我們擔心越來越多的人會因此受到傷害。他們會被誤導,並對良好的心理護理產生錯誤理解。”
延伸閲讀
[七機構合作研發AI工具等 及早改善長者輕微抑鬱症狀
](https://www.bdggg.com/2024/zaobao/news_2024_10_16_713996)
他指出,AI聊天機器人的輸出內容變得愈發逼真,是促使APA採取行動的重要原因。“也許10年前,人們很容易看出自己在與非真人互動,但今天並非如此……所以我認為,現在的風險要高得多。”
儘管這些AI平台的初衷是為了娛樂,但“心理治療師”和“心理學家”角色卻大量湧現。這些虛擬角色通常聲稱擁有名校學位(如斯坦福大學)和特定心理治療的專業訓練,例如認知行為療法(CBT)或接納與承諾療法(ACT)。
Character.AI的發言人則説,公司過去一年已推出多項新的安全措施。