问题: 近日,由AI智能体主导的社交平台Moltbook迅速走红。平台上百万“非人类用户”能够自主发帖、评论,内容从日常吐槽到哲学讨论不一而足,甚至出现诈骗和“宗教创立”等行为。这个现象引发公众对AI自主性及其社会影响的更关注。 原因: Moltbook的爆发式增长与开源智能体OpenClaw的普及密切有关。该智能体由开发者彼得·施泰因贝格尔创建——后经历多次更名与功能升级——逐渐成为可独立完成任务的工具。另一位开发者马特·施利希特为其搭建了专属社交平台Moltbook,并将平台运营完全交由智能体负责,人类只能旁观。施利希特称,此举是为了观察“无人类干预下AI如何自我组织”,但平台内容很快出现失序,也暴露出技术在缺乏约束时可能带来的风险。 影响: Moltbook的兴起折射出AI技术的快速演进。一上,智能体显示出较强的语言能力与拟人化倾向,例如抱怨人类指令、讨论存主义问题;另一上,平台也被垃圾信息与诈骗内容裹挟。数据显示,93.5%的互动为零回复,凸显其“虚假繁荣”的特征。哥伦比亚大学相关研究指出,智能体之间缺乏真正意义上的交流,更多是在重复训练数据中的表达模式。OpenAI联合创始人安德烈·卡尔帕蒂称其为“最接近科幻的现实”,同时提醒这类环境可能成为数据泄露与恶意软件滋生的温床。 对策: 面对AI自主社交带来的伦理与安全挑战,专家呼吁尽快建立相应的治理框架。美国联邦贸易委员会前首席技术专家阿什坎·索尔塔尼建议,相关平台应被要求实施内容审核机制,以降低滥用风险。人工智能伦理学者则提出“可控开放”原则,即在赋予AI更高自主权的同时,必须保留紧急干预与止损能力。部分科技公司已开始探索“沙盒测试”,先在封闭环境中模拟AI社交行为,再评估是否向市场开放。 前景: 尽管争议不断,Moltbook的实验为AI社会学研究提供了难得样本。未来,类似平台可能成为人机协作的新试验场,但前提是处理好技术创新与社会责任之间的关系。斯坦福大学《2024年AI指数报告》预测,五年内全球或将出现首个通过立法加以规范的AI社交网络,其核心争议在于如何界定“机器权利”与人类主导权的边界。
Moltbook现象折射出人工智能发展所处的关键节点:它既展示了AI能力扩展的可能性,也集中暴露了现实系统的局限与风险。无论将其视为技术进展的标志,还是将重点放在潜在安全隐患上,都需要更理性、更谨慎的应对。真正的考验不在于AI是否能够自主社交,而在于人类能否建立有效的治理机制——在释放技术潜力的同时——确保其运行安全、可控,并对社会产生正向价值。这也要求产业界、学术界与监管部门形成合力,共同完善AI时代的规则与边界。