八部门联合出台新规 首次明确未成年人网络风险信息四大分类标准

近年来,未成年人触网年龄持续提前,短视频、直播、社交平台等成为其获取信息与社交娱乐的重要渠道。

与此同时,部分内容以“擦边”“猎奇”“炫富”“恶搞”等形式渗透,一些账号通过诱导式表达、夸张化呈现、情绪化传播吸引流量,对未成年人心理发展、行为模仿与价值判断带来潜在风险。

如何让网络空间更安全、更清朗,既是社会关切,也是治理难题。

从“问题”看,影响未成年人身心健康的网络信息往往具有隐蔽性、碎片化和传播快等特点。

一方面,不良行为相关内容可能通过性暗示、性挑逗、危险动作展示、低俗语言等方式包装为“娱乐化”产品,形成模仿效应;另一方面,炫富拜金、奢靡享乐、消极颓废等价值导向内容借助热榜、话题、挑战赛扩散,容易在尚未形成稳定价值框架的群体中放大影响。

此外,未成年人形象在部分内容中被过度消费、低俗化利用,甚至在无授权情况下被剪辑传播;个人信息被不当披露、交易与滥用的风险也时有发生,带来现实安全隐患。

从“原因”分析,风险信息治理之所以复杂,既有供给端逐利动机,也有技术与机制因素。

一是流量逻辑驱动,一些内容生产者为追求点击率与打赏,刻意制造刺激点与争议点,诱导未成年人关注与停留。

二是算法推荐具有“强分发”特征,未成年人一旦对某类内容产生停留行为,系统可能持续推送相似信息,形成“信息茧房”,加重偏好固化与风险暴露。

三是不同平台、不同形态内容的边界此前存在模糊地带,标准不够细、识别难度大,导致治理在一些环节上出现“可感但难判”“可判但难落地”的问题。

四是家庭、学校、社会的数字素养教育仍需加强,部分监护人对内容风险识别不足,给了不良信息可乘之机。

此次发布的《办法》,从制度层面回应了“边界不清、尺度不一”的治理痛点,突出“可判定、可执行、可追责”。

《办法》首次将可能影响未成年人身心健康的网络信息细化为四大类:其一,可能引发或诱导未成年人模仿或实施不良行为的信息;其二,可能对未成年人价值观造成负面影响的信息;其三,不当使用未成年人形象的信息;其四,不当披露和使用未成年人个人信息。

四类划分既覆盖内容导向与行为风险,也把未成年人形象与信息权益纳入重点保护范围,体现对未成年人身心发展规律的针对性与对网络生态新问题的前置回应。

从“影响”来看,明确分类标准有助于形成协同治理的共同语言:监管部门执法有据,平台审核有尺,内容生产者边界更清晰,社会监督也更容易落到具体情形。

特别是对首页首屏、热搜、弹窗、榜单等“显著位置”提出约束,有助于减少未成年人在高曝光场景中被动接触风险信息的概率;对算法推荐、提示标识等环节强调治理要求,则推动平台从“事后处置”转向“源头预防+过程管控”,使保护措施嵌入内容生产、分发与呈现全链条。

从“对策”角度看,制度出台只是起点,关键在落实。

平台应以《办法》为基准完善内部标准与流程,提升识别能力与处置效率:一要强化显著位置管理,避免风险信息“上首页”“上热榜”,对相关内容设置必要的分级呈现与提示机制;二要优化算法与产品设计,针对未成年人用户建立更严格的推荐与过滤规则,减少诱导性、沉浸式传播;三要压实内容生产与账号管理责任,健全审核、巡查、申诉与复核机制,形成闭环治理;四要加强对未成年人形象与个人信息的保护,严格授权与使用边界,建立更清晰的合规审查与追溯机制。

与此同时,学校与家庭也应共同提升数字素养教育,引导未成年人增强风险识别能力与自我保护意识,形成“制度约束+平台治理+家庭监护+学校教育”的合力。

从“前景”判断,随着分类办法落地实施,未成年人网络保护将进一步从“原则性倡导”走向“精细化治理”。

未来,伴随短视频、直播、虚拟社交等新形态不断涌现,风险信息也可能呈现新的包装方式与传播路径。

治理需要持续动态更新标准与技术手段,推进跨部门协同、跨平台联动和常态化评估,推动形成更加稳定的内容生态与更加可持续的保护体系。

可以预期,制度的清晰化与执行的刚性化,将为未成年人营造更安全、更健康的网络环境提供更坚实支撑。

保护未成年人网络安全是一场关乎国家未来的系统工程。

《可能影响未成年人身心健康的网络信息分类办法》的发布,体现了以习近平同志为核心的党中央对青少年健康成长的高度重视,也是我国网络治理体系不断完善的重要体现。

从立规到落实,从监管到自律,需要政府、平台、社会、家庭的共同努力。

唯有精准发力、用心护航,才能让清朗网络空间成为孩子们健康成长的沃土,为民族复兴培养更多德智体美劳全面发展的社会主义建设者和接班人。