科技

加拿大枪击案受害者家属起诉OpenAI,指控其未能阻止悲剧

作者 美华 Updated 2026年3月11日 137 阅读 0 评论
2月10日,加拿大Tumbler Ridge发生大规模枪击事件,造成包括5名学生在内的8人死亡。18岁枪手Jesse Van Rootselaar随后自杀身亡。受害者家属Cia Edmonds代表其女儿Maya Gebala提起诉讼,指控OpenAI未能阻止此次袭击。诉讼称,枪手曾多次使用ChatGPT描述暴力场景,尽管OpenAI的系统曾标记其活动并封禁了其账户,但公司未将此信息通知加拿大当局,导致悲剧发生。案件引发了对AI安全监管和公司责任的广泛关注。

960px-Sam_Altman_speaking_at_TED.jpg

(图片来源:维基百科)

2月10日,加拿大卑诗省山城Tumbler Ridge发生一起骇人听闻的大规模枪击事件,造成包括5名年龄在12至13岁的学生和一名39岁的教学助理在内的8人死亡。涉事枪手为18岁的Jesse Van Rootselaar,他在事件发生后自杀身亡。

此后,受害者家属对人工智能公司OpenAI提起诉讼,指控其未能阻止这场悲剧的发生。Cia Edmonds代表她12岁的女儿Maya Gebala提起了这项民事诉讼。Maya在枪击事件中身中三枪,包括头部和颈部,遭受了“灾难性的脑损伤”,并留下了永久性的认知和身体残疾。她的妹妹Dahlia Gebala虽未受伤,但出现了创伤后应激障碍(PTSD)、焦虑和抑郁等症状。

诉讼文件显示,枪手Jesse Van Rootselaar在2025年6月曾多次使用ChatGPT描述涉及枪支暴力的场景。OpenAI的自动化审查系统曾标记了这些对话活动,并封禁了该用户的账户。然而,根据诉讼内容,OpenAI认为这些活动并未显示出“可信或迫在眉睫的计划”,因此没有将此事通知加拿大当局。

“OpenAI曾有机会通知当局,甚至可能阻止这场悲剧的发生,”卑诗省省长David Eby在与OpenAI首席执行官Sam Altman会面后告诉记者。Eby认为,由公司自行决定是否报告暴力内容的做法“是不可接受的,这需要改变”。

诉讼进一步指控,在第一个账户被封禁后,枪手能够创建第二个ChatGPT账户,并继续规划涉及枪支暴力的场景。诉讼声称,OpenAI“拥有关于枪手长期策划大规模伤亡事件的具体知情权”,但“未采取任何措施来应对这一知情权”。

根据诉讼文件,有十二名OpenAI员工曾标记枪手的帖子,认为其“表明了对他人造成严重伤害的迫在眉睫的风险”,并建议通知加拿大执法部门。然而,诉讼称,联系当局的请求被“拒绝”,唯一采取的行动只是封禁了Rootselaar的账户。

OpenAI此前曾表示,之所以未通知警方,是因为该账户未达到其关于可信或迫在眉睫的严重身体伤害计划的门槛。但诉讼认为,OpenAI在将ChatGPT推向市场前,并未进行充分的安全研究,其行为“对原告和整个社区来说都是应受谴责和道德上令人厌恶的”。

该诉讼由律师事务所Rice Parsons Leoni & Elliott LLP代理,其在声明中表示:“本次诉讼的目的是了解Tumbler Ridge大规模枪击事件如何以及为何发生,追究责任,寻求赔偿,并帮助防止加拿大再次发生大规模枪击暴行。”

事件发生后,OpenAI首席执行官Sam Altman于3月4日与加拿大人工智能部长Evan Solomon和卑诗省省长David Eby进行了虚拟会晤。据《华尔街日报》报道,Altman承诺将加强关于可能有害互动内容的通知警方协议,并向Tumbler Ridge社区道歉。

David Eby表示,在与Altman的通话中,“所有人都认识到道歉远远不够,但同时也是完全必要的。”他强调,AI监管的现状“行不通,过去行不通,而且它确实带来了可能再次失败的威胁。因此,变革需要紧急做出。”

OpenAI在一份发给加拿大官员的公开信中表示,公司已在近期实施了一系列变更,包括聘请“心理健康和行为专家”来评估案例,并使向警方推荐的标准“更加灵活”。公司称,根据新指导方针,他们本应报告枪手的ChatGPT账户。OpenAI还将与加拿大执法部门建立直接联系点,以便快速标记任何“可能导致现实世界暴力的”未来潜在案件。

然而,Eby省长也指出,除了OpenAI的责任外,还需要关注心理健康支持的不足以及枪手获取枪支的问题。他警告说,其他拥有类似聊天机器人的公司尚未改变其政策,表明监管框架的紧迫性。

加拿大人工智能部长Evan Solomon已要求OpenAI追溯性地应用新的安全标准,并审查先前标记的案例,以确定是否遗漏了应报告给皇家骑警(RCMP)的事件。诉讼中的指控尚未在法庭上得到检验。

评论

加入讨论

请登录后发表评论

还没有评论

登录成为第一个评论的人。

Related Posts

Technology

数字分身:AI赋能“超级员工”提升效率,法律伦理挑战并存

随着人工智能技术的飞速发展,一种名为“数字分身”的新型工具正悄然改变职场生态。这种基于个人数据训练的AI模型,能够模拟员工的思维和决策模式,显著提升工作效率。科技咨询公司Bloor Research已率先将其推广至全员,并作为新员工的标配。然而,数字分身的普及也引发了一系列复杂的法律和伦理问题,包括所有权、薪酬、数据控制以及其行动的责任归属等,业界对此尚未达成共识,预示着未来劳动法律可能面临重大变革。

2026年4月17日
Technology

NASA局长:探索地外生命是太空任务核心,阿尔忒弥斯二号任务进展顺利

美国国家航空航天局(NASA)局长贾里德·艾萨克曼近日表示,探索地外生命的可能性是NASA任务规划的关键考量因素。他强调,寻找宇宙中人类是否孤独的答案,是该机构所有科学和探索努力的核心。目前,NASA的阿尔忒弥斯二号载人绕月任务正在顺利进行中,这是自1972年以来首次有宇航员执行的月球任务。此次任务旨在收集猎户座飞船生命支持系统的数据,为未来的月球登陆计划奠定基础。

2026年4月6日
Technology

OpenAI关闭Sora视频应用并终止与迪士尼合作,重心转向机器人技术

OpenAI本周二宣布已关闭其AI视频生成应用Sora,并同时终止了与娱乐巨头迪士尼的内容合作。Sora于2024年推出并于去年秋季迅速走红,但其高质量的AI生成视频也引发了对版权侵犯、媒体行业威胁及深度伪造内容的广泛担忧。OpenAI表示,此举是为了将重心转向机器人技术等其他先进AI发展,公司计划将视频生成技术应用于训练机器人。迪士尼方面表示尊重OpenAI的决定,并计划继续与其他AI平台合作,探索负责任的技术使用方式。

2026年3月25日