问题—— 一方屏幕连接万千信息,也让未成年人进入更复杂的网络环境;社交媒体以强互动、强推荐、高黏性影响未成年人的学习、社交与心理发展,内容风险、沉迷风险、数据与隐私风险、商业诱导等问题引发的社会关注持续升温。放眼国际,如何保障合理使用与防范伤害之间划清边界,已成为数字治理的现实课题。 原因—— 多国加快行动,既源于未成年人触网年龄提前、使用时长增加,也与平台商业模式和技术机制对青少年的“放大效应”有关。一上,算法推荐、自动播放、即时反馈等设计容易形成连续使用链条,而未成年人自控力与判断力相对不足,更易被高刺激内容牵引。另一方面,基于用户画像的定向广告、数据收集与内容分发,使未成年人未充分理解规则的情况下,暴露于更高的隐私与消费风险。再加上网络欺凌、虚假信息、极端内容等跨境传播,单靠家庭提醒或学校教育难以覆盖所有场景,推动公共政策从倡议逐步走向制度化约束。 影响—— 从治理格局看,“最低使用年龄”正成为各国立法与政策的关键抓手之一。澳大利亚通过《2024网络安全(社交媒体最低年龄)修正案》,并于2025年12月10日生效,明确禁止16岁以下未成年人在脸书、TikTok、X等主要平台拥有账户,成为全球首个以立法方式实施此类限制的国家。进入2026年,有关动向明显增多:马来西亚提出自2026年1月1日起禁止16岁以下注册或独自使用社交媒体账户;法国国民议会通过法案拟禁止15岁以下使用;英国上院通过相关修正案,释放敦促效仿的政策信号;西班牙宣布将推动立法禁止16岁以下使用社交媒体平台。同时,德国、意大利、西班牙等国强调在父母同意前提下使用的规则安排,显示不同制度路径下的共同取向——通过年龄门槛与监护责任分担,降低风险暴露。 对策—— 除“立法设限”外,平台治理与技术治理也在同步加码,成为另一条重要政策线索。欧盟明确禁止向未成年人投放个性化广告,并对自动播放等机制作出限制,意在从源头削弱商业化驱动对未成年人的过度吸引,降低“被动连续观看”带来的沉迷风险。拉美国家也在推进类似制度设计:巴西相关委员会批准法案,要求限制基于未成年人数据的定向广告,并要求平台定期向监管机构提交涉未成年人内容投诉报告,以透明与问责推动平台履责。澳大利亚禁令生效后,平台迅速采取账户清理等技术措施,显示在强约束下平台具备更强的执行力度与资源投入空间。多国学界普遍认为,平台对未成年人保护的主体责任不应止于“年龄门槛”,还需在产品设计、内容审核、使用机制诸上建立更系统的“安全默认”与风险提示。 同样被反复强调的,是教育引导体系的协同建设。越来越多的实践表明,制度约束可以“拦风险”,但难以替代“育能力”。加拿大努纳武特地区以学校指南规范师生使用并开发数字媒介素养课程,强化识别与应对网络风险的能力;西班牙发布未成年人技术使用指南并向家长发放家庭手册,推动家庭与学校同向发力;芬兰将“数字公民”教育前置到学前阶段,强调识别虚假信息与安全使用的基础能力;美国部分州把数字健康教育纳入教学大纲,聚焦合理使用与成瘾行为的识别与应对。这些举措共同指向一个趋势:通过家校社协同,把规则意识、媒介素养、心理健康与自我管理纳入日常教育体系,推动未成年人从“被动防护”走向“主动免疫”。 前景—— 从全球趋势看,未成年人社交媒体治理正从单点措施转向组合治理:以最低年龄为“入口阀门”,以广告与数据规则为“关键闸门”,以产品机制约束为“技术栅栏”,以数字素养教育为“长期底座”。未来一段时间,政策仍将面对多重挑战,包括如何有效核验年龄、如何隐私保护与身份识别之间取得平衡、如何处理跨境平台的合规协同、以及如何避免“一刀切”影响合理学习与公共信息获取等。可以预期,制度设计将更强调可执行性与可评估性,平台合规也将从“事后整改”更多转向“事前预防”,并在透明度报告、未成年人模式、默认保护设置等上形成更细化的标准。
数字技术深刻改变着人类社会,也重塑着儿童的成长环境;如何在拥抱技术进步的同时守护未成年人身心健康,考验着各国的治理能力。从全球实践看,法律约束、技术管控、教育引导缺一不可。只有构建政府、平台、学校、家庭多方协同的保护网络,才能为未成年人营造更安全、健康的数字成长空间。这场数字时代的儿童保护行动,不仅关乎当下,也关乎未来。