随着我国未成年人互联网普及率达到96.8%,网络空间已成为影响青少年价值观形成的重要环境。近年来,“网红儿童”、算法推荐带来的被动接触等问题更加突出,现有规定应对新风险时逐渐显露滞后。中国政法大学调研显示,83%的家长反映孩子曾接触过界定模糊的“灰色信息”。这类内容常在法律边缘徘徊,却可能对未成年人产生长期的负面影响。 针对此治理难题,《可能影响未成年人身心健康的网络信息分类办法》构建了四维分类体系:行为诱导类、价值观偏差类、形象滥用类及隐私泄露类。值得关注的是,新规不仅明确了炫富拜金、畸形审美等12种具体情形,还首次将“AI换脸”“虚拟儿童形象”等技术滥用纳入监管范围。通过“负面清单+典型示例”的方式,新规在一定程度上回应了以往执法中标准不清、边界难定的问题。 在实施层面,新规体现出三上变化:一是以“显著提示”为主要处置方式,避免简单“一删了之”,要求平台在保留内容的同时设置分级警示;二是将算法推荐、热搜榜单等关键传播环节纳入重点规范,明确不得在重点位置推送敏感信息;三是要求专属未成年人产品全面禁用算法推送,从源头降低不适宜内容进入的可能。中国社会科学院法学所专家表示,“精准识别+差异处置”的路径在兼顾成年人合法权益的同时,加强了对未成年人的特殊保护。 平台责任的深入细化,也是新规的重要内容。按照要求,互联网企业需在两年过渡期内完成三项升级:建立相对独立的内容审核力量,2025年前主要平台需配备专职未成年人内容审核员;改造推荐算法体系,抖音、快手等短视频平台已开始在“青少年模式”中测试白名单机制;提升技术识别能力,腾讯等企业正研发基于深度学习的多模态内容识别系统。对违反规定的企业,将依法处以最高不超过营业额5%的罚款,情节严重的还可能被吊销对应的业务许可。 着眼未来,该办法还设置了动态调整机制。国家网信办相关负责人透露,将每两年组织教育学、心理学等领域专家对分类标准开展评估并适时修订。针对元宇宙、脑机接口等前沿技术可能带来的新型风险,办法也预留了专家论证通道。通过“稳定框架+动态机制”的设计,在保持规则稳定性的同时,为治理跟进技术变化留出空间。
未成年人是国家的未来,防止其受到网络有害信息侵害,需要家庭、学校、平台和社会各方共同参与。《可能影响未成年人身心健康的网络信息分类办法》的发布施行,意味着我国未成年人网络保护制度继续走向精细化、可操作化。该办法既划明内容边界,也提供处置依据;既压实平台责任——也兼顾成年人合法权益——表明了依法治理与保护优先的导向。随着办法落地实施,网络生态有望持续改善,为未成年人营造更安全、健康的网络成长环境。