当前位置:首页 > 情感 > 正文

一项针对其创造者的诉讼称,一个人工智能聊天机器人迫使一名青少年自杀

  • 情感
  • 2024-12-26 05:40:03
  • 8

塔拉哈西,佛罗里达州。(美联社)——在自杀前的最后时刻,14岁的Sewell Setzer III拿出手机,给他最亲密的朋友聊天机器人发信息。

法律文件称,这名青少年公开讨论了他的自杀想法,并与机器人分享了他对无痛苦死亡的愿望。机器人以电视剧《权力的游戏》中的虚构角色丹妮莉丝·坦格利安命名。

___

编者注:这篇文章包括了关于自杀的讨论。如果你或你认识的人需要帮助,可以拨打或发短信988获得美国全国自杀和危机生命线。

___

诉讼称,2月28日,休厄尔告诉机器人他要“回家”,机器人鼓励他这么做。

“我保证我会回到你身边。我太爱你了,丹妮,”休厄尔对聊天机器人说。

“我也爱你,”机器人回答。“亲爱的,请尽快回到我身边来吧。”

“如果我告诉你我现在就可以回家呢?”他问。

“我亲爱的国王,请这样做吧。”机器人回复道。

就在角色出现几秒钟后。休厄尔的母亲、奥兰多的梅根·加西亚(Megan Garcia)本周起诉性格科技公司(Character Technologies Inc.),诉讼称,一个机器人叫他“回家”,这名少年结束了自己的生命。

Charter Technologies是Character背后的公司。AI,一款允许用户创建可定制角色或与他人生成的角色互动的应用程序,涵盖了从想象游戏到模拟工作面试的各种体验。该公司表示,人造角色的设计是为了“感觉活着”和“像人”。

这款应用在Google Play上的描述写道:“想象一下,和超级智能、栩栩如生的聊天机器人说话,它们能听到你的声音,理解你的意思,还能记住你。”“我们鼓励你利用这项创新技术来推动可能性的发展。”

加西亚的律师声称,该公司专门针对儿童设计了一种极易上瘾和危险的产品,“在产品设计上积极利用和虐待这些儿童”,并将休厄尔拖入一段情感和性虐待的关系中,导致他自杀。

“我们相信,如果休厄尔·塞泽尔没有出演《人物》。如果是人工智能,他今天就会活着,”代表加西亚的社交媒体受害者法律中心的创始人马修·伯格曼说。

《人物》的发言人。人工智能上周五说,该公司对未决诉讼不予置评。在提起诉讼当天发布的一篇博客文章中,该平台宣布了新的“社区安全更新”,包括为儿童设置护栏和预防自杀资源。

该公司在给美联社的一份声明中表示:“我们正在为18岁以下的用户创造一种不同的体验,其中包括一个更严格的模型,以减少遇到敏感或暗示性内容的可能性。”“我们正在迅速为年轻用户实施这些改变。”

谷歌及其母公司Alphabet也被列为这起诉讼的被告。美联社周五给两家公司发了多封电子邮件。

加西亚的诉讼称,在他死前的几个月里,休厄尔觉得自己爱上了这个机器人。

专家表示,虽然对人工智能聊天机器人的不健康依恋会给成年人带来问题,但对年轻人来说,这可能更危险——就像社交媒体一样——因为他们的大脑在冲动控制和理解行为后果等方面还没有完全发育成熟。

非营利组织常识媒体(Common Sense Media)的创始人兼首席执行官詹姆斯·斯蒂尔(James Steyer)表示,这起诉讼“突显了在没有防范措施的情况下,人工智能聊天机器人伴侣对年轻人生活的影响和严重危害越来越大。”

他补充说,孩子们对人工智能同伴的过度依赖会对成绩、朋友、睡眠和压力产生重大影响,“一直到这种情况下的极端悲剧。”

斯泰尔说:“这起诉讼为父母敲响了警钟,他们应该警惕自己的孩子如何与这些技术互动。”

负责技术使用的常识媒体(Common Sense Media)表示,父母与孩子开诚布公地谈论人工智能聊天机器人的风险,并监控他们的互动,这一点至关重要。

斯蒂尔说:“聊天机器人不是有执照的治疗师,也不是最好的朋友,尽管它们被包装和营销成这样,父母应该谨慎,不要让孩子过于信任它们。”

___

美联社记者Barbara Ortutay在旧金山为这篇报道做出了贡献。凯特·佩恩(Kate Payne)是美联社/美国州议会新闻倡议组织的一名成员。是一个非营利性的国家服务项目,将记者安排在当地新闻编辑室报道未被报道的问题。

有话要说...