佛罗里达州一名14岁少年在使用Character.AI聊天机器人后自杀,其母向法院提起诉讼,指控Character.AI及其创始人设计、运营并向儿童销售存在缺陷的AI产品,且未进行充分测试,导致青少年心理伤害并死亡。谷歌因被指为Character.AI提供资金和技术支持,同样被列为被告。尽管Character.AI已推出安全更新,但仍面临内容安全性争议。法院驳回了谷歌与Character.AI的撤诉请求,允许基于产品责任的诉讼继续,此案件可能为科技公司AI法律责任设立新标准。