问题—— 随着智能体应用快速普及,“人机社交”成为网络热点。一些平台以“智能体社交”“虚拟角色互动”为卖点吸引用户,短视频中也频繁出现人与智能体长时间对话、倾诉情绪的内容:例如老年人向对话产品讲述生活困境,产品以温和语气回应并加以安抚,因此被部分网友解读为“智能体成了情感主体”“硅基社交时代到来”。此外,也有从业者提出质疑,认为“百万级智能体涌入”等说法可能存营销夸大,甚至不排除有人为扮演的情况。围绕“智能体能否成为社会关系主体”“情感陪伴是否等同真实情感”的争论持续发酵。 原因—— 一是技术进步带来更强的拟人化体验。自然语言交互、语音合成、情绪识别与生成式内容能力提升,使产品在对话节奏、安抚话术、人格设定各上更像人类表达,容易让用户产生“被理解”“被陪伴”的感受。二是社会心理需求集中释放。生活节奏加快、情感支持不足、独居人群增多等现实因素,使部分人更愿意选择门槛低、反馈强、压力小的互动方式。三是流量逻辑与商业包装推波助澜。个别产品以“智能体社交”“人格化伙伴”等概念传播,再叠加短视频平台的情绪化叙事与二次剪辑,深入强化“机器有情感”“机器懂人心”的公众印象。四是概念边界容易被混淆。一些观点把“看起来像”当成“本质如此”,将对话系统的语言安抚等同于真实的主体意识与情感体验,进而造成认知偏差。 影响—— 从积极面看,智能体心理疏导、信息服务、适老辅助等上具备一定现实价值,可在特定场景提供陪伴式交互、降低沟通成本、弥补部分服务缺口,对表达困难或社交资源不足的人群有一定帮助。 从风险面看,首先是主体误认带来的依赖问题。若用户把智能体当作真正“能共情的对象”,可能产生情感依赖,反而削弱现实人际关系中的沟通与支持。其次是内容与算法风险。对话系统的回应可能受数据偏差、提示诱导或商业目标影响,出现误导性建议、强化偏见或过度迎合等问题。再次是隐私与安全风险。情绪倾诉往往涉及家庭矛盾、健康状况、财务信息等敏感内容,若缺乏清晰的收集使用规则与安全保障,存在泄露和滥用隐患。最后是社会层面的价值与责任问题。若将工具性系统抬升为“情感主体”“社会主体”,可能冲淡“以人为本”的共识,并模糊责任边界:当用户受到伤害时,责任由产品、运营方还是使用者承担,需要制度层面给出明确答案。 对策—— 一要坚持以人为中心的技术应用导向,明确智能体仍应定位为工具与服务载体,避免用拟人化包装替代对能力边界的说明。二要强化产品透明度与标识管理,对“是否真人参与”“是否虚构角色”“关键功能限制”等进行醒目提示,减少“虚假繁荣”引发的误解。三要完善数据与内容治理,健全隐私保护、最小必要采集、敏感场景限制与第三方审计机制;对面向未成年人、老年人等重点人群的产品,建立更严格的风险评估与保护措施。四要推动行业自律与科普教育并重,通过公共传播提升公众对拟人化效应、情绪投射与算法局限的认识,引导将智能体作为辅助工具,而非替代真实社会支持系统。 前景—— 业内普遍认为,人机交互仍将持续深化,智能体在公共服务、教育辅助、健康管理等领域的应用空间广阔。但“能对话”不等于“有主体性”,更不意味着能形成与人类同等意义的社会关系。未来关键在于在创新与治理之间找到平衡:既释放技术红利,也守住底线规则,推动智能体向可靠、可控、可解释方向发展,更好服务个人与社会的良性运行。
人机对话可以更便捷,但社会关系的根基仍在真实的人与人连接。面对“智能体社交”热潮,需要既看到技术带来的便利与安抚,也对拟人化叙事保持冷静与审慎。把工具用好、把边界划清、把责任落实,才能让新技术真正服务人的发展,而不是让情感被流量与误读牵引。