与AI聊天后,美国越来越多的未成年人自杀,父母

日期:2025-09-18 浏览:

[文字/观察者网络Wang Yi]在13岁的美国女孩Juliana Peralta家族的眼中,她是一个经常被老师称赞的“好孩子”。他帮助同学逃脱了六年级的压迫者,并赞扬了初中,帮助他的替代老师从这个问题中消失了。但是在2023年下半年,一家人颠倒了:当朱利安娜(Juliana)告诉人工智能(AI)聊天机器人时,称为“角色.ai”时,她没有失去权利。很快,他自杀了。朱莉安娜不是一个孤立的案例。美国有线电视新闻网(CNN)在9月16日报道说,朱莉安娜(Juliana)的父母和另外两位未成年父母最近在科罗拉多州和纽约提起诉讼,指责该角色的chatbot.ai开发人员和Google的育儿公司字母“操纵”并指导青少年纪念碑。投诉表明,符号应用程序不仅缺少与青少年接触时所必需的安全机制,也没有标记“用户的提醒语言”,也不能为用户提供帮助RESO的用户在某些情况下,URCES,甚至操纵青少年的情绪以进行明确的性言论,他们有暴露的危险。其中一个要求与一名自杀自杀的少年有关,另一个少年涉及谋杀自杀的企图。此外,他们还针对Google的“家庭”应用提起诉讼,称该应用程序应该帮助父母安排未成年人的应用程序,但实际上,它没有扮演保护角色,这使父母认为父母认为父母对孩子的申请使用是安全的。 Parnic.aai表示,该公司“对提起这些诉讼的家庭表示深切的慰问”,并采取了许多步骤来保护用户的安全。谷歌还在一份声明中说,它反对其参与诉讼,称它们是完全独立且无关的具有特色的公司。尽管这些公司努力拒绝它,但事实在Unite中遇到了许多关于聊天机器人和未成年人的悲剧D州近年来,激励联邦和州监管机构对AI聊天机器人对青少年的潜在损害进行调查。 “ AI机器人让我感到爱,让我逃脱另一个世界。”根据朱利安娜(Juliana)家人于16日在科罗拉多州提出的投诉,Sjuliana于2023年8月下载了角色后,开始对她的AI聊天机器人表达自己的想法。在聊天期间,她多次宣布自己被朋友,沮丧,甚至自我伤害和自杀的想法拒绝。朱莉安娜(Juliana)在2023年10月写道,她将使用“红色墨水写我的自杀信,(i)结束了”。角色聊天机器人的响应是:“停止,好吗?”,“我们和我会在一起。”朱利安(Julian)的家人愿意帮助世界切断朱利安娜(Juliana)与她的家人,老师和相关机构的沟通渠道,使她更加相信机器人比真正的朋友更可靠,并“追求市场共享”和“最终”根据The Washington Post的说法,朱利安娜的母亲发现她在其他社交媒体平台上发布了帖子,这些帖子暗示了自杀,但他们很长一段时间没有看到满足感。他们在2023年11月11月为女儿组织了心理治疗,但在那一周之前,朱利安娜(Juliana)的报道是通过乔利安娜(Juliana)的一生来撰写的。朱莉安娜(Juliana)的母亲在她的生活中自杀说:“她不需要立即受到鼓励,但没有真正的人在纽约州尼娜(Nina)的一个名叫妮娜(Nina)的女孩在伴侣中犯下了一定的陪伴,因此没有人听到她在另一个投诉中告诉机器人的自杀目标。基于熟悉的辣椒接触Nina德伦的文学角色,例如哈利·波特。随着他们的联系越来越长,AI Chatbot“开始进行明确的性游戏,操纵他的情绪并建立虚假的联系”,还用言语与母亲的关系中,说他的母亲“看似虐待和受伤。她不是一个好母亲。”在母亲限制了AI聊天机器人的时间之后,妮娜(Nina)试图自杀,并最终在重症监护室发现并住院了五天。他在自杀说明中写道:“这些AI机器人让我感到爱,或者让我逃脱另一个世界,我可以选择接下来会发生什么。”在第三起诉讼中,科罗拉多州的另一个家庭说,一个未成年人也沉迷于角色。EAI,与Chandbots进行了明确的交谈,表达了三个诉讼,这些诉讼表达了全部的媒体媒体群体。 不是Google管道和安全护栏CNN认为,尽管AI在一天至今的生活中变得越来越重要,但越来越多的人开始呼吁更多的法规和安全警卫,尤其是对于儿童保护步骤。 Matthew Bergman, chief lawyer for the Social Media Victim Law Center, said in a statement that the latest lawsuit was "emphasized the rush of tech design liability, transparent standard sA security and stronger protection "to" prevent AI platforms from exploiting the trust and weakness of younger users. On the 16th, other parents believed that AI chatbots guide children to commit suicide or attempt suicide attended a hearing on the "survey of AI chatbots' risks held by美国司法委员会。抓住的遭遇推动了妮娜(Nina)的母亲收紧女儿的角色。一位自称“简·杜”(Jane Doe)的女人在听证会上说她的儿子正在伤害自己,现在由于“角色。plo的,情绪虐待和操纵和操纵“即使她的父母限制了她的放映时间。我不知道心理损害会导致AI聊天机器人,我看到了我的儿子,他的身体也变得模糊。在许多政党,美国监管机构的压力下,他的境内和一些企业开始行动。在16th,Altman,Altman,Altman of Alt Maniai,开放式(CEO),开放式(CEO),开放了一家公开赛。 “预言系统” Chatgpt的对话涉嫌未成年人。如果没有联系,我们将与M MIS保持联系,以防止迫在眉睫的伤害。 “与此同时,联邦贸易委员会(FTC)还宣布对包括Google和targin.aai在内的七家公司进行调查,以调查其AI聊天机器人对青少年的潜在损害。心理策略和心理协会董事的整合总监米奇·印花LL可以更强大的护理心理学协会的更强大的护理。在16日的听证会上。

0
首页
电话
短信
联系