当前,网络低俗内容蔓延、“网红儿童”被商业化包装、算法推荐诱导未成年人沉迷等问题更加突出。一些平台主体责任落实不到位,使不良信息反复出现。数据显示,2023年全国未成年人网民规模已超过1.9亿,但网络内容分级制度仍不完善、监管标准不够清晰等情况长期存,建立更系统的治理框架已成当务之急。 此次实施的《办法》引入四维分类体系,将风险信息分为行为诱导类、价值观偏差类、形象滥用类和隐私侵害类。其中,“不当使用未成年人形象”被单独列出,明确禁止商业带货、恶搞炒作等18类具体情形。北京市第一中级人民法院专家指出,这种“负面清单+场景列举”的做法,有助于回应过去执法中“边界难划、依据不足”的难题。 在技术监管上,新规对算法推荐提出更严格的穿透式要求,禁止平台首页首屏等高曝光位置推送不良信息,并对未成年人专属产品实行更严标准。值得关注的是——规定首次建立强制提示制度——要求创作者和平台对风险内容作出显著标识。该制度一上提升监护人的知情权,另一方面也促使内容生产与分发环节加强前置审核。 多部门协同是本轮治理的重要特点。网信、教育、公安等八部门将建立联合督查机制,推动形成“政府主导、平台履责、社会监督”的共治格局。业内分析认为,这种更常态化、立体化的监管安排,有助于补齐以往集中整治的短板,使未成年人网络保护从事后处置更多转向提前预防。 法律专家表示,作为《未成年人网络保护条例》的重要配套制度,《办法》落地后将带来多重影响:一方面为平台内容审核提供更明确的标准,减少合规的不确定性;另一方面通过压实主体责任,推动企业将保护机制纳入产品设计、开发与运营的全过程。随着技术形态演进,监管规则也可能更延伸到短视频、元宇宙等新兴场景。
未成年人在网络空间的健康成长——既需要法治保障——也离不开社会合力。制度完善只是起点。无论是清单划定、技术管控,还是风险提示与部门协同,最终都指向同一个目标——让未成年人能够在更安全、更清朗的网络环境中学习与成长。这也需要政府、平台、家庭和社会持续协同,把制度要求转化为可落地、可持续的保护措施。