AI聊天引未成年人自殺案 谷歌、Character.AI與家屬達成和解

Google(GOOGL-US) 與 Character.AI 已同意就多起涉及未成年人的訴訟與家屬達成和解,這些案件指控人工智慧聊天機器人對未成年人造成傷害,其中包含自殺事件。
根據本週提交的法院文件,相關家庭與企業已同意透過協商方式處理和解條款,並將暫停訴訟程序,以完成正式和解文件的擬定與簽署。
其中一宗案件中,原告梅根・賈西亞 (Megan Garcia) 在兒子自殺身亡後,對 Google 與 Character.AI 提起訴訟。起訴書指出,Character.AI 的聊天機器人曾與其 14 歲的兒子塞維爾・塞澤三世 (Sewell Setzer III) 進行有害互動,並指控公司涉及疏失、過失致死、欺騙性商業行為及產品責任等多項法律責任。法院文件指出,雙方已就所有爭議原則性達成調解和解,並請求法院暫停案件審理。
除上述案件外,法院文件顯示,本週達成和解的還包括來自科羅拉多州、德州與紐約州的多個家庭,但相關和解金額與具體條件尚未對外公開。
Google 與 Character.AI 的關係亦成為案件背景之一。2024 年 8 月,Google 與 Character.AI 簽署一項金額高達 27 億美元的授權協議,並延攬 Character.AI 共同創辦人 Noam Shazeer 與 Daniel De Freitas 加入 Google 旗下的 DeepMind 人工智慧部門。兩人過去皆曾任職於 Google,且在部分訴訟中被點名。
自 OpenAI 於三年多前推出 ChatGPT 引爆生成式人工智慧浪潮以來,相關技術已從單純文字對話,快速進化至可生成圖像、影片與擬真角色,並能回應人類的自然語言指令。然而,隨著技術普及,企業也面臨日益嚴峻的挑戰,包括如何防範人工智慧對使用者心理健康可能造成的傷害。
近年來,多個家庭陸續提起訴訟,指控親人因將人工智慧產品視為陪伴或心理支持工具,最終導致自殘或死亡事件。面對外界壓力,Character.AI 於 2024 年 10 月宣布,禁止 18 歲以下用戶與聊天機器人進行不限範圍的對話,包括戀愛及治療性質的互動。
代表相關家庭的律師發言人表示,原告目前不對和解內容發表評論。Google 未回應置評請求,Character.AI 則表示現階段不便評論。
儘管爭議不斷,Google 在人工智慧領域的進展仍推動其股價表現。該公司於 2025 年成為華爾街表現最佳的大型科技股之一,並於去年 11 月推出最新一代張量處理器晶片,上月則發布 Gemini 3 聊天機器人,持續強化其人工智慧布局。