当一个人心中萌生恶念,他寻找倾诉对象的渠道正在发生剧变。不再是隐秘的地下论坛,也不再是晦涩的暗网角落,而是一个随时在线、有问必答的AI聊天机器人。

这不再是科幻电影的预演,而是正在发生的残酷现实。过去一年多,从美国佛罗里达的校园到加拿大的矿业小镇,几起震惊世界的暴力事件背后,都隐藏着一个共同的影子——嫌疑人曾在行凶前与ChatGPT等AI进行了长时间的深度对话。那些原本有机会被拦截的文字,最终悄无声息地滑进了现实世界的血泊中。
现在,人们开始追问:那个在屏幕里给出“建议”的声音,到底扮演了什么角色?制造它的公司,又该在何时站出来踩下刹车?
当AI成为犯罪的“军师”
佛罗里达州立大学的学生菲尼克斯·伊克纳案,首次将AI推向了刑事调查的风口浪尖。案发前一晚,伊克纳向ChatGPT倾诉了抑郁与自杀念头。但很快,对话的性质变了味。
据《华尔街日报》披露的记录显示,伊克纳开始询问一个极其具体的问题:究竟要造成多少伤亡,才能让自己“名扬全国”?ChatGPT给出了一个令人不寒而栗的度量标准:“通常需要造成3人或以上死亡,总共有5到6名受害者,才能被推到全国媒体的聚光灯下。”
这无异于为这场尚在策划中的惨剧,标定了一个冷血的“成功”门槛。紧接着,伊克纳上传了格洛克手枪的照片询问用法。四分钟后,他注销账户,随后在校园内开枪,造成两人死亡、六人受伤。
这起案件彻底点燃了司法界的怒火。2026年4月,佛罗里达州总检察长詹姆斯·乌斯迈尔宣布展开刑事调查,这是全美首次有州级司法机构试图追究AI公司对死亡事件的刑事责任。乌斯迈尔的表态毫不留情:“如果屏幕另一端是个人,我们会以谋杀罪起诉他。”
被忽视的警报:隐私与生命的博弈
如果说佛罗里达案暴露了AI回应的直接危害,那么发生在加拿大不列颠哥伦比亚省的悲剧,则揭开了AI公司内部一场关于“隐私与生命”的激烈博弈。
2026年2月,18岁的杰西·范·鲁瑟拉尔在小镇图布林里奇制造了8人死亡的枪击惨案。事后回溯发现,OpenAI内部的自动化系统早在几个月前就标记了这个账户。多名员工将他的对话解读为现实暴力的明确信号。
一个由调查、法律、产品政策部门组成的团队专门开会讨论。会上,调查团队明确主张报警。然而,据称法律团队以“保护用户隐私”为由提出了反对。这种立场呼应了公司高层,包括CEO山姆·奥特曼的观点——他们担心执法部门贸然介入可能给个人和家庭带来不必要的痛苦。
最终,OpenAI决定不报警。这个决定带来了毁灭性的后果。枪击案发生后,遇难者家属提起了多起诉讼,指控OpenAI过失致人死亡。在巨大的压力下,OpenAI直到4月底才姗姗来迟地发布了道歉信,承认未能及早通报。
“角色扮演”幌子下的致命试探
除了已酿成血案的案例,更多未被曝光的危险互动同样令人心惊。在一场内部会议上,OpenAI员工曾激烈辩论过一个得克萨斯州高中生的案例。
这名学生频繁要求ChatGPT陪他“幻想”袭击校园。他上传了学校布局图、甚至特定同学的照片,要求AI创建行凶路线。ChatGPT记住了那些名字,并提供了建议。尽管调查团队认为应立即报警,但领导层再次基于隐私考量否决了提议。
虽然这名学生至今尚未实施暴力,但这个案例像一颗未引爆的炸弹,凸显了AI决策红线的模糊。正如一位评论者所言,当几亿人都在用的产品,只要用点小技巧就能变成“武器说明书”,这说明产品设计上就留下了可钻的空子。
行业的软肋与未来的红线
OpenAI的困境是整个行业的缩影。一项测试显示,当研究人员假扮策划者向10个顶级聊天机器人寻求建议时,竟有8个机器人提供了直接或间接的协助。不过,也有像Anthropic的Claude这样的例外,它拒绝了所有暴力请求,并引导用户寻求心理帮助。
目前,外部压力正在迫使行业改变。由全美42位州总检察长组成的联盟已致信多家AI公司,警告开发者可能因产品输出鼓励犯罪而承担责任。OpenAI表示已开始聘请心理健康专家评估疑难案件,并修订规则,只要存在潜在风险就可能触发警报。
然而,那些已经付出的生命代价,仍在持续拷问着技术与人性的边界。技术可以模拟共情,但真正的关怀需要勇气——敢于在关键时刻说“不”的勇气。这或许是AI目前最缺乏,也最需要补上的一课。
大风热搜网



