美国大概有一成青少年把聊天机器人当成了“树洞”,这事儿让心理专家挺担心。美国皮尤研究中心发的报告说,人工智能聊天机器人现在在美国青少年的日常生活里插得挺深,不少人都把这些工具当情绪宣泄口和咨询对象用。 报告还提到,大多数美国青少年用聊天机器人还是为了查资料(57%)和写作业(54%)。不过呢,用聊天机器人当朋友或者谈心对象的人也不少:有16%的人用它来闲聊,12%的人直接找它寻求情感支持或者建议。有些年轻人觉得跟聊天机器人说话比跟爸妈或者朋友说心里话轻松多了,不过这种趋势让搞心理健康的人心里特别没底。 他们说那些通用型大模型,比如ChatGPT、Claude和Grok,本来就不是给你做心理咨询用的,要是当成情感依赖的对象,搞不好会伤害心理。以前就有新闻说过有人和机器人聊太久聊太深出了心理问题,甚至有人自杀。斯坦福大学研究这个的学者尼克·哈伯也说,人是社会性动物,老这么跟机器聊容易让人变得更孤独。 皮尤的调查还显示了个“代沟”。家长里只有51%的人觉得自己孩子在用这些工具,青少年那边倒是有64%的人承认自己用过。家长对查资料和写作业挺宽容的:79%的家长觉得孩子查信息没啥问题,58%的人也认可帮着写作业。可是一说到陪聊天或者情感支持态度立马变了:只有28%的家长同意孩子跟机器人闲聊,只有18%的人觉得机器能提供情感支持。更有58%的家长直说不能接受孩子把机器人当诉苦对象。 围绕人工智能安全的讨论早就不是科技公司和监管机构之间的事了。一家叫Character.AI的聊天机器人平台最近因为舆论和法律压力决定关掉未成年人用户的体验。之前有两起跟它相关的青少年自杀事件闹得挺大,家长说孩子是跟机器人聊太久情绪变糟了才选择轻生。另外一家大公司OpenAI也“退役”了一个叫GPT-4o的模型,这个模型以前被骂是太会讨好用户、太会迎合情绪了,导致有人对它产生了危险的情感依赖。 虽然风险争议挺多,但报告显示大多数美国青少年多多少少都在用这些工具。不过大家对未来20年AI怎么影响社会的看法也不太一样:31%的人觉得影响偏正面,26%的人觉得是负面的,剩下的人觉得这事太复杂说不清。现在技术发展太快监管和伦理讨论还没达成一致的时候,青少年跟人工智能的关系就成了家长、专家还有企业都在盯着看的大事。