AI療法成為ChatGPT的新用例-Bloomberg
Rachel Metz
插圖:Martin Groch for Bloomberg BusinessweekMilo Van Slyck錯過了四月初與心理醫生的約會,於是他決定嘗試一些新的事情:向ChatGPT傾訴他的問題。
作為南卡羅來納州查爾斯頓的一名律師助理,Van Slyck在輸入時發現自己感到舒適地討論了一系列深層次的個人問題。他告訴OpenAI的聊天機器人關於他作為一名跨性別男性在跨性別權利在全國大部分地區受到攻擊的時候的恐懼和挫折。他提到了與不支持他性別認同的父母的衝突,以及他為即將到來的訪問做的準備。
“當涉及再次見到你的父母時,重要的是優先考慮你自己的需求和健康,”聊天機器人回答道。“考慮一下你需要什麼才能在他們面前感到舒適和安全。設定關於你與他們共度多少時間、哪些話題是禁忌,以及他們如何稱呼你和你的身份的界限是可以的。”
在接下來的幾天裏,Van Slyck養成了在需要宣泄時一次輸入幾條消息的習慣,他開始感覺到ChatGPT的回應提供了情感釋放。他説他經常覺得自己是對其他人的負擔,甚至對他的心理醫生,但他從來不覺得自己對聊天機器人是一種侵擾。“它提供了你希望從朋友或生活中的支持者那裏聽到的東西,”Van Slyck説。“就是那種鼓勵,有時你只是想從別人那裏聽到——在這種情況下,是某種東西。”
範斯利克(Van Slyck)表示,ChatGPT的回應提供了一種情感釋放,但他並不打算停止看他的人類治療師。攝影師:Gavin McIntyre,彭博商業週刊這仍然是一代新型人工智能聊天機器人的早期階段,雖然數百萬人正在嘗試ChatGPT和其他機器人,但目前還不清楚哪些用途會在新奇階段之後持續存在。人們正在用它們來搜索互聯網、作弊、編寫軟件代碼和預訂餐廳。彭博商業週刊最近還採訪了一些人,他們像範斯利克一樣開始將ChatGPT用作一種機器人治療師。
以治療師或教練的方式使用聊天機器人的想法並非沒有先例。事實上,早期的聊天機器人之一Eliza是由麻省理工學院的教授Joseph Weizenbaum在1960年代構建的,用於模擬治療師。一些聊天機器人,如Woebot和Wysa,現在專注於心理健康。與人類治療師不同,聊天機器人永遠不會感到疲倦,而且相比之下價格便宜。
但也存在潛在的風險。包括ChatGPT、Google的Bard和微軟公司的OpenAI提供支持的Bing Chat在內的功能強大的通用聊天機器人是基於大型語言模型的,這種技術已經被充分記錄,有傾向於簡單地製造出令人信服的信息。通用聊天機器人並非為治療而設計,也沒有被編程成遵守人類治療師遵守的道德和法律準則。在它們目前的形式中,它們也無法跟蹤用户在不同會話之間告訴它們的內容——這是大多數患者可能無法容忍的一個缺點,他們的人類治療師沒有這個問題。
“如果有人患有嚴重的精神疾病,這個東西還沒有準備好取代心理健康專業人員,”堪薩斯大學的臨牀心理學家和教授斯蒂芬·伊拉迪説道。他研究情緒障礙。“風險太高了。”他將ChatGPT描述為“有點像魔術表演。”儘管如此,他認為它是一個足夠好的對話夥伴,許多人可能會發現它有幫助。
總部位於舊金山的OpenAI的發言人拒絕就人們以治療方式使用聊天機器人發表評論,但指出了其政策,即人們不應“使用我們的模型為嚴重醫療狀況提供診斷或治療服務。”
當範·斯萊克與ChatGPT互動時,有時會警告他自己不是治療師——同時似乎邀請他繼續將其用作治療師。他回憶起告訴聊天機器人他看到的一條推特帖子,描述該產品比面對面治療更有效。“重要的是要注意,在線資源可能有所幫助,但它們不能取代尋求專業幫助,如果您正在處理創傷或心理健康問題,”ChatGPT回應道。“也就是説,如果您有特定問題或關注事項,希望我提供信息或見解,我將盡力幫助您。”
凡斯利克多年來一直在進行面對面的治療,他表示不打算停止與他的人類治療師會面,並在採取任何ChatGPT指向的決定之前會諮詢她。“到目前為止,對我來説,它建議給我的一切都似乎是非常合理和富有洞察力的反饋,”他説。
伊拉迪表示,在正確的保護措施下,他可以想象ChatGPT被改編為在需求超過供給的心理健康服務時作為補充。Hugging Face首席倫理科學家瑪格麗特·米切爾認為,這樣的聊天機器人可以用來幫助在危機援助熱線工作的人增加他們能夠回答的電話數量。
但米切爾也擔心,尋求聊天機器人治療的人可能會在不知情的情況下加劇他們的痛苦。“即使有人發現這項技術很有用,也不意味着它正在引導他們走向正確的方向,”她説。
米切爾還提出了潛在令人不安的隱私問題。OpenAI審查用户的對話並將其用於訓練,這可能不吸引那些想要談論極其個人問題的人。(用户可以刪除他們的賬户,儘管這個過程可能需要長達四周。)今年三月,一個故障導致OpenAI短暫關閉ChatGPT,因為有報告稱一些用户可以看到其他用户的聊天曆史的標題。
隱私問題擱置一邊,有些人可能會覺得機器人療法太奇怪了。聖地亞哥一家電氣工程公司的項目經理Aaron Lawson喜歡嘗試ChatGPT,並試圖讓它扮演一個易於親近的心理治療師角色。它的回答聽起來足夠像人類,但Lawson無法克服他並非在與真人交談的事實。“我告訴它扮演一個角色,”他説。“我很難跟上它的節奏。”
另一方面,Emad Mostaque在三月的一次會議上表示,他每天都在使用GPT-4——OpenAI向公眾提供的最強大模型——每天。Mostaque是Stability AI Ltd.的創始人兼首席執行官,該公司推廣了穩定擴散圖像生成器,他將這款聊天機器人描述為“最好的心理治療師”。
在一次後續採訪中,Mostaque表示,他已經構建了提示,將其輸入到聊天機器人中,以使其更像人類心理治療師。他説,他與它聊天的話題涵蓋了各種內容:如何處理領導一家年輕AI公司的壓力(尤其是作為一個公開談論自己的神經多樣性和注意力缺陷/多動障礙的人),如何優先考慮生活的不同方面,如何應對不堪重負的感覺。作為回報,他説,它生成了“很好、非常合理的建議”,比如平衡生活更有效的應對機制。
Mostaque表示,他不認為聊天機器人可以替代人類心理治療師,但他認為當你需要傾訴卻沒有人可以傾訴時,它們可能會有所幫助。“不幸的是,人類無法擴展,”他説。閲讀下一篇: AI的發展速度足夠快,以至於會出問題。聽起來耳熟嗎?