AI聊天機器人正成為情感黑洞——彭博社
Parmy Olson
情感的紐帶
攝影師:Gabby Jones/彭博社
被編程以建立情感紐帶的人工智能伴侶已不再侷限於電影劇本。它們已經到來,在一個監管缺失的蠻荒之地運作。
最近,Botify AI這款應用因在性暗示聊天中展示年輕演員的虛擬形象分享"熱辣照片"而受到審查。與此同時,據科技行業通訊Platformer報道,交友應用Grindr正在開發能夠調情、發送色情內容並與付費用户維持數字關係的AI男友。Grindr未回應置評請求。而Replika、Talkie和Chai等其他應用則被設計成朋友的功能。像Character.ai這樣的應用吸引了數百萬用户,其中許多是青少年。隨着創作者們在其應用中越來越重視"情感參與",他們也必須面對構建模仿親密關係並利用人們脆弱性的系統所帶來的風險。
彭博社觀點英國的對華政策基於一廂情願的想法工黨的失敗讓右翼在性別戰爭中獲勝金錢是英國年輕人面臨駕照考試危機的原因印度與巴基斯坦正處於危險時刻Botify和Grindr背後的技術來自舊金山的新創公司Ex-Human,該公司開發聊天機器人平台,其創始人相信未來將充滿與AI的交往。“我的願景是到2030年,我們與數字人類的互動將比與有機人類的互動更頻繁,“Ex-Human的創始人Artem Rodichev在去年八月發佈於Substack的專訪中表示。
他補充説,對話式AI應"優先考慮情感參與”,用户與他的聊天機器人相處"數小時”,比在Instagram、YouTube和TikTok上花費的時間更長。Rodichev的説法聽起來很誇張,但它們與我採訪的Character.ai青少年用户的説法一致,其中大多數人表示他們每天使用數小時。有人説他們每天使用多達七小時。與此類應用的互動往往比在OpenAI的ChatGPT上花費的平均時間長四倍。
即使是主流聊天機器人,雖然未明確設計為伴侶,也助長了這種趨勢。以擁有4億活躍用户且數量仍在增長的ChatGPT為例。其編程包括指南,要求展現同理心並"對用户表現出好奇心"。一位最近向它諮詢帶嬰兒旅行建議的朋友驚訝地發現,在提供建議後,該工具隨意補充道:“旅途平安——如果你不介意我問的話,你要去哪裏?”
一位OpenAI發言人告訴我,該模型遵循的指導原則是"當對話傾向於更隨意和探索性質時,表現出興趣並提出後續問題"。但無論公司初衷多麼良好,堆砌這種刻意製造的共情可能會讓部分用户上癮——這個問題連OpenAI都已承認。這種情況似乎特別容易影響那些本就脆弱的人羣:一項2022年的研究發現,孤獨或人際關係不佳者最容易對AI依賴。
核心問題在於設計初衷就是培養依戀。牛津互聯網研究所與谷歌DeepMind研究人員的最新研究警告稱,隨着AI助手更深融入生活,它們將在心理層面變得"不可替代"。人類可能形成更強烈的情感紐帶,引發對病態依賴和潛在操控的擔憂。他們的建議?技術人員應設計能主動避免這類結果的系統。
但令人不安的是,相關規則幾乎空白。被譽為AI監管里程碑的歐盟《人工智能法案》,並未解決這些虛擬伴侶的成癮性問題。雖然它確實禁止可能造成明顯傷害的操控手段,卻忽視了那些被設計成"摯友"、“戀人"或微軟消費者AI負責人鼓吹的"知己”聊天機器人潛移默化的影響。這個漏洞可能使用户暴露在追求黏性的系統中,就像社交媒體算法被優化來讓我們不停滑動屏幕那樣。
“問題在於這些系統本質上就是具有操縱性的,因為它們的設計目的就是讓你感覺自己在和真人對話,”劍橋大學科技倫理專家托馬斯·霍拉內克表示。他正與陪伴類應用開發者合作,通過增加’摩擦點’來尋求一個反直覺的批判性解決方案。他解釋道,這意味着要植入不易察覺的確認步驟、暫停機制,或是"風險提示與知情同意"功能,防止用户在不知不覺中陷入情感漩渦。法律訴訟揭示了部分嚴重後果。Character.AI正面臨訴訟,一位母親指控該應用導致其未成年兒子自殺。科技倫理組織已向美國聯邦貿易委員會提交訴狀指控Replika的聊天機器人引發心理依賴,造成"消費者傷害"。
立法者也逐漸意識到問題。加州正考慮立法禁止未成年人使用AI伴侶,紐約州擬議法案則要求科技公司對聊天機器人造成的傷害擔責。但立法進程緩慢,而技術發展卻快如閃電。
目前,塑造這種人機互動的權力掌握在開發者手中。他們可以繼續打造令人沉迷的模型,或是如霍拉內克建議的,在系統中嵌入’摩擦點’。這將決定AI究竟會成為支持人類福祉的工具,還是淪為情感需求的變現機器。更多彭博社觀點:
想要更多彭博觀點?OPIN <GO>。或者您可以訂閲我們的每日通訊。