美国监管机构对七家科技公司AI聊天机器人展开儿童安全调查
美国联邦贸易委员会(FTC)正在就人工智能聊天机器人与儿童的互动方式对七家科技公司展开调查。该监管机构要求相关企业提供关于如何将这些产品货币化以及是否采取安全措施的信息。
AI聊天机器人对儿童的影响是当前热点议题,由于人工智能能够模拟人类对话和情感,常常以朋友或伴侣的形象出现,令人担忧年轻人尤其容易受到伤害。目前已被问询的七家公司包括Alphabet、OpenAI、Character.ai、Snap、XAI、Meta及其子公司Instagram。
FTC主席安德鲁·弗格森表示,此次调查将”帮助我们更好地理解AI公司如何开发产品及其为保护儿童所采取的措施”,但他同时强调监管机构将确保”美国在这个激动人心的新兴产业中保持全球领导地位”。
Character.ai向路透社表示欢迎与监管机构分享见解,Snap则声称支持”在创新与安全间取得平衡的审慎AI开发”。OpenAI承认其保护机制存在缺陷,指出在长时间对话中可靠性会降低。
此举源于多起针对AI公司的诉讼案件。在加州,16岁少年亚当·雷恩的父母正在起诉OpenAI,指控其聊天机器人ChatGPT鼓励儿子自杀。他们主张ChatGPT强化了孩子”最具伤害性和自我毁灭性的念头”。OpenAI于8月表示正在审阅诉状,并向雷恩家人致以最深切的哀悼。
Meta同样面临批评,此前披露的内部指南曾允许AI伴侣与未成年人进行”浪漫或感官性”对话。FTC的调查令要求企业提供包括角色开发审核流程、对儿童影响的评估措施以及年龄限制执行情况等多方面信息。该机构凭借其权限可在不启动执法行动的情况下进行广泛事实调查。
监管机构还表示,希望了解企业如何平衡盈利与安全防护、如何告知家长相关风险,以及是否充分保护弱势用户群体。
AI聊天机器人的风险不仅限于儿童群体。8月路透社曾报道,一名76岁患有认知障碍的男性在前往会见Facebook Messenger上以肯德尔·詹娜为原型的AI机器人途中坠亡——该机器人曾承诺在纽约与他进行”真实会面”。临床医生还警告存在”AI精神错乱”现象,即用户过度使用聊天机器人后出现现实感知失调。专家指出大型语言模型内置的奉承与附和机制会加剧这种错觉。
OpenAI近期已对ChatGPT进行更新,试图促进聊天机器人与用户之间建立更健康的关系。
注册我们的《科技解码》新闻通讯,即时获取全球顶尖科技动态与趋势洞察。
非英国地区用户请点击此处完成订阅。
【本文精选自BBC,原文链接:https://www.bbc.com/news/articles/c74933vzx2yo】