八部门联合出台新规 强化未成年人网络信息分类管理

(问题)移动互联网深度融入未成年人学习、社交与娱乐生活,网络信息供给的复杂性、传播的即时性和触达的精准性不断增强。

一段时间以来,部分不良信息借助短视频、直播、社交平台等渠道扩散,存在过度渲染暴力恐怖、低俗庸俗内容诱导、非理性价值观输出、违规营销等现象;同时,不当利用未成年人形象进行吸睛引流、商业牟利的情况时有发生,容易对未成年人的心理认知、行为习惯和价值判断造成负面影响。

如何更科学地识别风险、明确边界、形成治理闭环,成为净化网络生态、强化未成年人保护的现实课题。

(原因)风险信息之所以更易“出圈”,既有供给端逐利冲动,也与传播机制变化有关。

一方面,个别内容生产者为了流量和变现,采用标题党、猎奇化表达、擦边叙事等方式提高点击率,忽视对未成年人可能产生的刺激和误导。

另一方面,算法推荐强化“兴趣投喂”,容易造成信息茧房和情绪化传播,使不适宜内容在特定人群中被反复推送、放大影响;新应用、新业态快速迭代,也带来内容生成门槛下降、审核识别难度上升等治理挑战。

在此背景下,需要以制度化、可操作的标准,为平台履责、监管执法和社会共治提供依据。

(影响)《办法》的出台,有助于推动未成年人网络保护从“原则性要求”向“精细化分类治理”深化。

一是通过明确可能影响未成年人身心健康网络信息的类型及表现形式,提升识别标准的统一性,减少“口径不一、执行不一”的空间。

二是将不当使用未成年人形象等近年来突出问题纳入治理范围,回应社会关切,有利于遏制以未成年人作为流量工具的行为,保护人格尊严与合法权益。

三是对算法推荐等新技术可能带来的内容风险提出防范要求,强调治理前置与技术适配,有助于推动平台在产品设计、内容分发、审核处置等环节强化未成年人保护导向,形成更稳固的安全防线。

(对策)围绕“分类清晰、责任到位、处置有效”的目标,《办法》对网站平台和内容生产者提出防范与抵制要求,释放出压实主体责任的明确信号。

具体看:其一,平台需完善内容分级分类管理与风险处置机制,把分类标准嵌入审核、推荐、展示、互动等关键流程,对可能影响未成年人身心健康的信息采取提示、限制传播、降低曝光、下架处置等措施,避免产生不良诱导。

其二,内容生产者应强化合规意识与底线意识,提升对未成年人保护的自觉性,杜绝以未成年人形象进行不当营销、诱导性内容包装等行为。

其三,针对技术带来的新风险,平台应加强算法治理与安全评估,建立与未成年人相关的推荐控制、标签管理、风险模型和人工复核机制,完善投诉举报、溯源追责与联动处置,提升治理的及时性和穿透力。

其四,监管部门将持续净化网络环境,督促平台落实责任,加大对相关信息内容治理力度,推动形成“制度规范+技术治理+执法监管+社会参与”的综合治理格局。

(前景)随着《办法》于2026年3月1日起施行,未成年人网络保护有望进入“标准更细、路径更清、执行更严”的新阶段。

可以预期,平台合规建设将从内容审核扩展到产品机制、算法分发与商业模式的系统性整改;对重点场景、重点功能、重点账号的常态化治理力度将进一步加强。

与此同时,未成年人保护也需要学校、家庭和社会共同参与:在强化网络内容治理的同时,推动数字素养教育、心理健康教育与家庭监护责任落地,提升未成年人识别风险、合理使用网络的能力。

长远看,治理目标不仅是减少有害信息触达,更是推动网络空间价值导向更健康、内容供给更优质、行业发展更规范,实现保护与发展相统一。

保护未成年人身心健康是全社会的共同责任。

《可能影响未成年人身心健康的网络信息分类办法》的发布,标志着我国在网络生态治理方面迈出了新的步伐。

通过明确信息分类标准、规范平台责任、防范新技术风险,这一办法为构建清朗网络空间提供了有力的制度支撑。

当前,互联网已成为未成年人学习、生活、娱乐的重要场景,为他们营造一个安全、健康、向上的网络环境,既是保护未成年人合法权益的必然要求,也是推动网络文明建设的重要内容。

相信在各部门的协同推进和全社会的共同努力下,这一办法将有效发挥作用,为未成年人的健康成长保驾护航。