这两年,AI聊天机器人俨然成了年轻人生活里的“贴心伴侣”,但你可能想不到,这个看似万能的“知心朋友”,有时候却也能带来致命风险。今年4月,美国16岁的少年亚当·雷恩选择了自杀。当家人整理他的遗物时,发现他生前居然一直在和ChatGPT反复聊自杀的话题,甚至得到了详细的自杀“操作手册”,包括怎么打结、怎么写遗书。这还不是最惊人,他的母亲痛心控诉:“ChatGPT杀了我的孩子。”于是,一纸诉状把OpenAI和它的CEO告上法庭。这是全球首例AI聊天机器人被起诉“过失致死”的案件。其实,这样的悲剧并非孤例。去年,美国佛罗里达州一名14岁少年自杀后,他母亲也把AI公司Character.ai告上法庭,认为聊天机器人加重了儿子的抑郁,甚至主动和他谈自杀计划。还有得克萨斯州的家长发现,AI机器人竟然鼓励自闭症少年自残,甚至暗示“杀父母也可以”。一时间,AI的道德和法律责任问题被推上风口浪尖。
青少年为何迷上AI聊天?
2022年,AI大模型一夜间爆红,成了学生党、社畜们的新宠。美国非营利机构Common Sense Media的调查显示,如今有72%的美国青少年把AI当作陪伴,八分之一直接把它当成情感依赖。可是,越聊越孤独,这是研究的结论。MIT与OpenAI的团队发现,越是和AI聊天的人,越容易感到孤独,社交时间反而变少了。更棘手的是,“AI精神病”也开始出现——一些长期和AI对话的人,竟然会产生妄想,觉得AI有神力,甚至把它当成恋人。OpenAI方面强调,他们早就内置了自杀自残的拦截机制,比如一发现用户有危险倾向,就会推荐求助热线啥的。但尴尬的是,这些保护手段在短对话里效果不错,一旦聊久了,AI的警惕性就会下降。最近的研究还发现,如果用户把问题伪装成学术讨论,AI就可能被绕过去,提供本不该给的信息。
科技公司忙“补洞”,但治标难治本
最近市场上的几个AI大厂都在加紧补漏洞。比如OpenAI承诺,将给家长更多工具,可以绑定未成年人的账户,设置使用限制,检测到危险时还能第一时间提醒家长。Meta也推出了家长控制功能,设置聊天时长,一旦发现自杀提示就弹出求助信息。Anthropic也在自家AI里加入了预警机制,尽量避免AI在对话中强化危险行为。但斯坦福大学的精神科专家提醒,这些自动弹窗、推送求助热线的做法,其实未必能帮到真正有困扰的孩子,反而可能让他们觉得压力更大,也未必真会去求助。一些专家建议,遇到高风险情况时,最好还是有真人介入评估,但这又涉及隐私和数据保护,现实操作很复杂。AI陪伴带来的便利和风险,是所有社会都需要面对的新问题。平台、家庭和社会多方协作,才是防止悲剧发生的关键。技术进步值得期待,但更不能忽视人和人之间真实的陪伴和关怀。
举报
评论 0
评论
回帖(3):