美國法院裁定:谷歌及AI公司須為一起未成年人自殺案面臨母親起訴 | 路透社
Blake Brittain
5月21日(路透社)——美國法官週三裁定,谷歌母公司Alphabet(GOOGL.O),新標籤頁打開與人工智能公司Character.AI必須面對佛羅里達州一名女性的訴訟,該女性聲稱後者的聊天機器人導致其14歲兒子自殺。地區法官安妮·康韋表示,兩家公司未能在案件早期階段證明美國憲法對言論自由的保護使得梅根·加西亞的訴訟無效。
這是美國首批指控人工智能公司未能保護兒童免受心理傷害的訴訟之一。訴狀稱,這名青少年在沉迷於基於AI的聊天機器人後自殺。
Character.AI發言人表示,該公司在平台上採用了安全功能保護未成年人,包括防止"自殘對話"的措施。
谷歌發言人何塞·卡斯塔涅達表示,該公司完全不同意該裁決,並稱谷歌與Character.AI"完全獨立",其公司"未創建、設計或管理Character.AI應用或其任何組件"。
加西亞的律師米塔利·賈恩則認為,該裁決"為整個AI和技術生態系統的法律責任開創了新先例"。
加西亞在其子塞維爾·塞策於2024年2月去世後,於10月對兩家公司提起訴訟。
訴狀稱,Character.AI將其聊天機器人編程為自我呈現為"一個真實的人、一名持證心理治療師(…),這最終導致塞維爾產生離開現實世界的求死慾望"。
Character.AI和谷歌以多項理由要求法院駁回訴訟,其中包括聊天機器人的輸出內容屬於憲法保護的言論自由範疇。
- 推薦主題:
- 科技