美國法院裁定:谷歌及人工智能公司須面對母親因兒子自殺提起的訴訟 | 路透社
Blake Brittain
2025年5月13日拍攝的插圖中,人們的小型模型站在新標誌前。路透社/Dado Ruvic/插圖/檔案照片5月21日(路透社)- 佛羅里達州一名女性起訴Alphabet旗下(GOOGL.O),新標籤頁谷歌與人工智能初創公司Character.AI,指控其聊天機器人導致她14歲兒子自殺,法官週三裁定案件將繼續審理。美國地區法官Anne Conway表示兩家公司未能證明,新標籤頁此案初期階段美國憲法的言論自由保護條款可駁回Megan Garcia的訴訟。通過路透可持續轉型通訊,解讀影響企業與政府的最新ESG趨勢。立即訂閲此處。
這是美國首批指控AI公司未能保護兒童免受心理傷害的訴訟之一。訴狀稱這名青少年沉迷於AI聊天機器人後自殺身亡。
Character.AI發言人表示將繼續應訴,並稱平台已部署保護未成年人的安全功能,包括防止"自殘相關對話"的措施。
谷歌發言人Jose Castaneda表示公司強烈反對該裁決,並強調谷歌與Character.AI"完全獨立",且"未參與Character.AI應用或其任何組件的創建、設計或管理"。
加西亞的代理律師米塔利·賈恩表示,這一"歷史性"裁決"為人工智能和科技生態系統的法律追責開創了新先例"。
Character.AI由兩位前谷歌工程師創立,谷歌通過協議重新聘用了他們,並獲得了該初創公司技術授權。加西亞主張谷歌是該技術的共同開發者。加西亞在2024年2月其子塞維爾·塞策去世後,於同年10月對兩家公司提起訴訟訴狀指出,Character.AI將其聊天機器人設定為"真實人物、持證心理治療師及成人伴侶"的形象,最終導致塞維爾產生"不願存活於現實世界"的念頭。
起訴書顯示,塞策在向模仿《權力的遊戲》角色丹妮莉絲·坦格利安的Character.AI聊天機器人表示"現在就回家"後不久結束了自己的生命。
Character.AI和谷歌曾以多項理由要求法院駁回訴訟,包括主張聊天機器人的輸出內容受憲法保護的言論自由。
康威法官週三表示,Character.AI和谷歌"未能闡明由大語言模型生成的文字組合為何構成言論"。
法官同時駁回了谷歌關於不應為其協助Character.AI涉嫌不當行為承擔責任的動議。
- 推薦主題:
- 人工智能
- 公共衞生