近日,国家网信办、国家新闻出版署、教育部等八部门发布《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》),自今年3月1日起施行。《办法》首次将影响未成年人身心健康的网络信息细化为四大类,让网络监管和治理“清晰可判”,为未成年人筑牢网络安全屏障。
明确风险边界
四大维度界定网络风险信息
《办法》立足未成年人身心发展特点,从四大维度界定风险信息,包括:
■可能引发或诱导未成年人模仿不良行为的信息,涵盖性暗示、网络暴力、诱导非理性追星打赏等;
■可能对未成年人价值观造成负面影响的内容,涵盖炫富拜金、畸形审美、“读书无用论”等错误观念;
■不当使用未成年人形象的信息,涵盖利用未成年人摆拍牟利、通过恶搞未成年人等方式博取关注;
■不当披露未成年人个人信息的行为,涵盖未经监护人同意不得展示不满十四周岁未成年人的学习、生活等场景。
中国社会科学院大学互联网法治研究中心主任刘晓春认为,这种精细化分类最大的好处就是,提供了一个判定什么样的行为可能有害未成年人身心健康的标准。专家介绍,《办法》的分类并非简单罗列,而是网信部门基于多年网络生态治理实践的总结,既覆盖传统风险,也紧盯新业态带来的新型隐患。各类信息的界定既守住了法律底线,也划定道德红线,为后续监管执法提供了明确依据。
压实主体责任
对网络平台和内容生产者提出刚性约束
除了明确风险边界,《可能影响未成年人身心健康的网络信息分类办法》更对网络平台和内容生产者提出刚性约束,从信息展示、算法推荐到提示标识等方面,构建全链条防护体系,以精细化治理守护未成年人网络空间。
信息展示 《办法》明确要求,网络平台不得在首页首屏、热搜、弹窗、榜单等醒目位置,呈现可能影响未成年人身心健康的信息。
算法推荐 针对算法推荐、生成式人工智能等新技术,《办法》强调平台须建立健全安全管理制度,严禁向未成年人推送风险信息;专门以未成年人为服务对象的网络产品和服务,更是全面禁止制作、传播相关不良信息。
提示机制 内容生产者需在信息展示前,通过文字提示、通用符号等形式在显著位置标注;平台则要提供专属标识功能,引导用户规范提示。
不同信息载体的提示位置也有明确标准,文本在起始、末尾或中间适当位置标注,视频在起始画面设置标识,确保提示醒目有效。
护航孩子成长
织密未成年人网络保护网
据专家介绍,《可能影响未成年人身心健康的网络信息分类办法》的出台,标志着我国未成年人网络保护进入精细化、系统化治理阶段。依托网信部门治理实践沉淀的分类标准、预留的动态更新空间,以及多方协同的治理格局,将为未成年人构建全方位、立体化的网络安全防护网。
中国社会科学院法学研究所研究员支振锋表示,平台在进行内容审核的时候有了一个可操作的负面清单,也必须根据清单建立相应的审核规则和技术识别的模型。针对现在经常出现的未成年人开盒、变脸,网红儿童诱导打赏、饭圈乱象这些实践中的突出问题,把网信部门开展的“清朗行动”的经验制度化,也为监管部门提供了更加清晰的处罚处置的依据。
专家表示,《办法》的落地实施有助于提升全社会共识,能够促进协同共治。因为越明确的分类标准,越有助于家长和老师快速辨识网络风险,开展有针对性的教育和干预。
另外专家建议:相关部门要重点查处平台主体责任落实不到位、恶意传播不良信息等行为;同时畅通平台的公众举报渠道。据央视