OpenAI发布最新评估数据,显示部分ChatGPT用户可能表现出心理健康危机迹象,包括躁狂、精神错乱或自杀倾向。该公司指出,在单周活跃用户中约0.07%呈现此类症状,并强调其人工智能聊天机器人能够识别并回应这些敏感对话。
尽管OpenAI坚称这类案例”极为罕见”,但批评人士指出,根据首席执行官萨姆·奥尔特曼近期披露的每周8亿活跃用户数据,即便是微小比例也可能涉及数十万人。随着监管审查日益严格,该公司表示已组建全球专家顾问网络以应对相关问题。
该公司表示,这些专家包括170多名曾在60个国家执业的心理学家、精神科医生和初级保健医师。根据OpenAI披露,这些专家已为ChatGPT设计了一系列应对机制,鼓励用户在现实世界寻求帮助。但该公司披露的数据引发部分心理健康专家的担忧。
“尽管0.07%听起来比例很小,但在数亿用户的人口层面,这实际上可能涉及相当多人,”加州大学旧金山分校研究青少年科技使用行为的教授杰森·永田博士指出。他补充道:“人工智能可以拓宽心理健康支持的获取渠道,并在某些方面支持心理健康,但我们必须意识到其局限性。”
该公司还估计,0.15%的ChatGPT用户会进行包含“潜在自杀计划或意图明确迹象”的对话。OpenAI表示,最近对其聊天机器人的更新旨在“对潜在妄想或躁狂迹象做出安全且共情的回应”,并识别“潜在自残或自杀风险的间接信号”。ChatGPT还经过训练,能够通过新窗口将“源自其他模型的敏感对话引导至更安全的模型”。
针对BBC关于潜在受影响人数质疑的回应,OpenAI表示这小比例用户实则对应着相当规模的人群,并强调正严肃对待相关改进。这些改进措施出台之际,OpenAI正因ChatGPT与用户的交互方式面临日益严格的法律审查。
在近期最受瞩目的诉讼中,加州一对夫妇因未成年儿子死亡起诉OpenAI,指控ChatGPT在今年四月鼓动其自杀。这是首起指控OpenAI承担非正常死亡责任的法律诉讼。另一起案件中,康涅狄格州格林威治市八月谋杀自杀案的嫌疑人在案发前发布了数小时与ChatGPT的对话记录,这些对话似乎加剧了嫌疑人的妄想症状。
“随着聊天机器人制造现实幻觉,更多用户陷入人工智能精神障碍,”加州大学法学院人工智能法律与创新研究所主任罗宾·费尔德曼教授指出,“这是种强大的幻觉。”她肯定OpenAI“公布统计数据并努力改进问题”值得赞许,但补充道:“公司可以在屏幕上设置各类警告,但处于心理风险中的人可能无法留意这些警示。”
【本文精选自BBC,原文链接:https://www.bbc.com/news/articles/c5yd90g0q43o】
