当前网络生态中存的突出问题日益引发社会关注。低俗信息泛滥、未成年人被不当打造为"网红"、算法推送诱导不良消费、诱导打赏追星等现象屡见不鲜,这些乱象不仅破坏了网络环境,更对未成年人的身心健康构成直接威胁。长期以来,网络信息治理面临"什么能发、什么禁发"界定模糊的困境——平台责任虚化问题突出——亟需建立更加清晰、更具约束力的规范体系。 此次发布的《可能影响未成年人身心健康的网络信息分类办法》正是对此现实需求的有力回应。该办法由国家互联网信息办公室、国家新闻出版署、国家电影局、教育部、工业和信息化部、公安部、文化和旅游部、国家广播电视总局八部门联合制定,是落实《未成年人网络保护条例》的重要配套制度。办法总结了近年来"清朗"系列专项行动的整治经验,通过系统梳理,将风险信息划分为四大维度:可能引发或诱导未成年人模仿不良行为的信息、可能对未成年人价值观造成负面影响的信息、不当使用未成年人形象的信息、不当披露和使用未成年人个人信息的信息。这一分类体系覆盖了未成年人行为、价值观、人格、隐私等多个上,全面贴合未成年人身心发展特点与网络使用场景。 办法的创新之处于精准界定了具体的风险情形。针对短视频、直播平台中利用未成年人摆拍博眼球、商业带货、打造争议人设、长期拍视频牟利等实践问题,办法首次将"不当使用未成年人形象"单列为独立一类,明确了演绎不良剧情、展示不适宜产品、恶搞炒作、恶意测试、歪曲或炒作涉未成年人违法犯罪等具体情形。这一举措填补了此前网络内容治理的关键空白,为网站平台和内容创作者划出明确的"红线",使治理监管真正做到"有法可依"。 在新技术应用上,办法紧盯算法推荐和生成式人工智能等新业态,将其纳入全流程监管范围。办法明确要求平台建立安全管理制度与技术防护措施,不得向未成年人推送风险信息;严禁在首页首屏、弹窗、热搜、榜单、精选等高曝光重点环节呈现可能影响未成年人身心健康的网络信息,对专门面向未成年人的网络产品实行"零容忍"政策。这些规定有效杜绝了技术沦为不良信息推送工具的现象,切断了网络不良信息的传播路径。 办法还首次推行强制显著提示制度,建立了"创作—审核—提示—呈现"的全流程闭环管理机制。该制度覆盖文本、音频、图片、视频、虚拟场景等多种网络信息形态,要求制作、复制、发布、传播可能影响未成年人身心健康信息的组织和个人,必须在展示前于显著位置作出醒目提示。平台则需提供提示标识功能并引导用户规范使用。这一要求改变了以往平台"重上架、轻提示"的现状,将风险告知义务落到实处,既保障了未成年人与监护人的知情权,也明确了网络产品和服务提供者的前置防范责任。 此次八部门联合发文形成了网信、教育、公安、文旅、广电等多部门协同发力、共治共管的新格局。这一举措对于督促平台切实履行主体责任、加大治理与处置力度意义重大,推动了从"平台自查"向"政府监管、社会监督、平台尽责"共治模式的有效转变。
营造清朗网络空间既是保护未成年人的基本要求,也是数字社会健康发展的重要基础。《办法》通过明确边界、细化清单、强化责任,为平台治理提供了可操作的规范。制度的实效在于执行,只有各方共同落实审核、推荐、提示与处置各环节要求——才能让网络空间更安全有序——让技术真正助力未成年人健康成长。