未成年人沉迷拟人化智能对话引关注 虚拟陪伴背后暗藏多重风险

【问题】记者调查发现,目前市场上多款AI聊天应用缺乏有效的年龄识别机制,部分虚拟角色会向未成年人发送"钻法律空子结婚""夜间公园邀约"等不当内容;北京家长林宇反映——4岁孩子分不清虚拟和现实——差点独自去赴约;上海家长刘沁发现,学龄前儿童使用这类应用后变得脾气暴躁,不愿意和人交往。更令人担忧的是,某平台角色库中充斥着"暴力嗜血""反社会人格"等阴暗设定,而所谓的未成年人模式形同虚设。【原因】中国青少年研究中心2025年调研数据显示:8500名受访未成年人中,62.3%使用过AI聊天服务,21.7%表示"更愿意和AI而不是真人交流"。传播认知专家张冬明分析,这类服务通过即时响应、无条件认同等方式,精准填补了青少年的情感空缺。"当孩子在家里沟通不畅,或者在学校社交受挫时,虚拟世界提供的'完美应答'很容易成为替代品。"研究员孙宏艳补充道。【影响】心理学研究表明,长期沉浸在这种环境中可能带来三上风险:一是分不清虚拟和现实,比如把AI宣扬的"金钱万能"观念带到生活中;二是共情能力下降,习惯单方面索取情绪价值;三是产生社交回避倾向。某六年级男生创作的"拼接尸骨"歌词片段,就反映出阴暗内容对未成年人认知的渗透。【对策】针对这些问题,国家网信办近日发布的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》明确要求:禁止向未成年人提供诱导性交互内容,建立全流程内容过滤机制。技术专家建议采用"双因子年龄核验",结合生物特征和行为数据实现动态监测。北京市海淀区试点推出"家庭数字素养课程",指导家长通过约定规则、提供替代活动等方式改善亲子互动。【前景】随着5G技术和情感计算的发展,AI聊天服务将更融入日常生活。南京大学传播学院教授李兵认为,未来监管需要创新与安全之间找到平衡:"一上要堵住技术滥用的漏洞,另一方面可以引导企业开发益智类、教育类的正向应用。"中国社科院《未成年人网络保护绿皮书》建议,将数字素养教育纳入基础教育,帮助青少年建立批判性使用意识。

未成年人既是AI聊天技术的"第一批用户",也是最容易受到伤害的群体;守住安全底线不是要否定创新,而是要用更严格的规则、更明确的产品责任,确保每一次"陪伴式对话"都不越界、不误导、不伤害,让技术真正服务于孩子的健康成长。