一项研究声称,Instagram旨在保护青少年免受不良内容侵害的工具未能阻止他们看到自杀和自残的帖子。研究人员还表示,这家隶属于Meta公司的社交媒体平台鼓励儿童”发布内容,从而收到来自成年人的高度性化评论”。由儿童安全组织和网络研究人员进行的测试发现,Instagram上47项针对青少年的安全工具中,有30项”基本无效或已不存在”。Meta对该研究及其发现提出异议,表示其保护措施已导致青少年在Instagram上看到的有害内容减少。
Meta发言人向BBC表示:”这份报告屡次歪曲我们为赋能家长和保护青少年所做的努力,错误描述了我们的安全工具运作方式以及目前数百万家长和青少年的使用情况。青少年账户之所以引领行业,是因为它们提供自动安全保护和直观的家长控制功能。”
该公司于2024年在Instagram推出青少年账户,声称将为年轻人提供更好保护并允许更多家长监督。该功能于2025年扩展至Facebook和Messenger。
政府发言人向BBC指出,要求平台处理可能危害儿童及青少年内容的规定意味着科技公司”不能再视而不见”。”科技公司长期放任有害内容摧残年轻生命、撕裂家庭,”该发言人表示,”根据《网络安全法》,平台现在负有法律义务保护年轻人免受包括宣扬自残或自杀内容在内的有害信息侵害。”
关于青少年安全措施有效性的研究由美国研究中心”网络安全促进民主”牵头,联合包括举报人阿图罗·贝哈在内的专家,代表莫莉·罗斯基金会等儿童安全组织进行。研究人员称在创建虚假青少年账户后发现了工具存在严重问题。
除发现30项工具无效或已停用外,研究指出9项工具”虽能减少危害但存在局限性”。在分析的47项安全工具中,仅8项有效运行——这意味着青少年仍会接触到违反Instagram自身规则的违规内容。
这些违规内容包括描述”侮辱性性行为”的帖子,以及推广自杀、自残或饮食失调搜索词的自动补全建议。”这些缺陷表明Meta的企业文化将用户参与度和利润置于安全之上,”英国在线安全法律倡导组织莫莉·罗斯基金会首席执行官安迪·巴罗斯表示。
该基金会成立于2017年14岁少女莫莉·拉塞尔自杀案之后。2022年庭审中,验尸官认定其死亡系遭受”网络内容的负面影响”所致。
研究人员向BBC新闻分享了其调查结果的屏幕录像,其中包含一些看似未满13岁的幼童发布自身视频的内容。在一段视频中,一名幼女要求用户为她的吸引力打分。
研究人员在研究中声称,Instagram的算法”激励13岁以下儿童为获取点赞和浏览量而实施风险性行为”,并指出该算法”鼓励他们发布内容以获取成年人的高度性化评论”。研究还发现,青少年账户用户可能相互发送”冒犯性和厌女信息”,并被推荐关注成人账户。
伯罗斯先生表示,这些发现表明Meta的青少年账户是”一场公关驱动的表演性噱头,而非明确协同解决Instagram长期安全风险的行动”。作为众多因儿童网络安全措施受批评的大型社交媒体企业之一,Meta首席执行官马克·扎克伯格于2024年1月在美国参议院就安全政策接受质询,并向声称子女遭受社交媒体伤害的家长群体道歉。
此后Meta实施了多项措施试图提升儿童用户安全性。但报告合著者”民主网络安全”组织联合主任劳拉·埃德尔森博士指出:”这些工具距离真正适用仍有很大差距。”
Meta向BBC表示该研究未能理解其青少年内容设置机制且存在曲解。发言人称:”实际情况是,处于这些保护措施下的青少年接触敏感内容更少,遭遇不良互动更少,夜间使用Instagram时间更短”,并强调工具为家长提供了”触手可及的强大管控功能”。
该公司同时指出,”民主网络安全”中心的研究声称青少年账户无法使用”休息提醒”等应用时长管理工具,而事实上这些功能已被整合至其他模块。Meta表示将持续完善工具,但质疑该报告”缺乏建设性”。
【本文精选自BBC,原文链接:https://www.bbc.com/news/articles/ce32w7we01eo】