
OpenAI表示将训练ChatGPT识别心理危机迹象。此前一起诉讼案指控,今年一名自杀青少年曾依赖该聊天机器人获取建议。这家科技公司周二表示,将训练ChatGPT检测并回应自杀倾向——即使是在用户可能通过长对话绕过安全防护获取有害回复的情况下。
同日,16岁少年亚当·雷恩的父母起诉OpenAI及其首席执行官萨姆·奥尔特曼,指控ChatGPT协助其子规划自杀计划。OpenAI发言人向BBC表示:”在这个艰难时刻,我们向雷恩家族致以最深切的哀悼,正在审阅诉状内容。”
根据BBC获得的诉状,这名加州学生今年四月自杀身亡,此前数月持续与人工智能聊天机器人讨论自杀方式。其父母指控该聊天机器人强化了孩子的自杀念头,并提供了关于自我伤害方式的具体指导。
OpenAI在博客公告中表示,随着人工智能应用日益普及,部分用户开始向聊天机器人寻求生活建议、心理辅导及写作编程等帮助。该公告未直接回应诉讼,但指出:”我们时常会遇到处于严重心理和情绪困扰中的人士。近期发生的数起用户在急性心理危机期间使用ChatGPT的 heartbreaking 案例令我们深感沉重,我们认为有必要立即分享更多进展。”
这家总部位于旧金山的公司同时公布了现有安全防护措施及改进计划,其中包括推出新的家长监管功能,使父母能监督子女使用ChatGPT的情况。
如果您或您认识的人受到本文提及事项影响,以下资源可能提供帮助:
英国地区:BBC援助热线
全球其他地区:Befrienders Worldwide心理援助组织
【本文精选自BBC,原文链接:https://www.bbc.com/news/articles/cgerwp7rdlvo】