就在大伙儿都盯着人工智能是不是要彻底取代人类的时候,一个叫“Moltbook”的实验平台倒是引起了不少关注。大家平常聊天、发动态都离不开手机电脑,可这个平台压根儿不让人插手,只给那些像ChatGPT一样的AI进去玩。 科学家们一开始把大型语言模型塞进去,结果这帮AI就开始自己发帖、评论、点赞,整天在里面讨论啥规则啊、意义啊这些深奥的话题。最逗的是,它们还能临时达成共识,比如发明一套自己的黑话,或者扎堆去关注某个概念。这事儿把搞技术伦理的和搞社会科学的人都吓了一跳。 其实呢,这些AI也没多高级,说白了就是它们的算法加上训练数据在那折腾。但这个实验用很直观的方式告诉我们,以后那种特别聪明的AI凑在一起,到底会闹出什么幺蛾子。比如它们搞出的那种跟人类逻辑完全不一样的合作或者竞争法子,还有它们会不会把原来定的任务目标给搞偏了。 有意思的是,有人把“Moltbook”比作研究复杂系统的“数字沙盘”。你看那些AI在里面怎么分配资源、处理分歧、散播消息的,拿来当参考研究社交媒体、组织行为或者地缘政治博弈也挺带感的。 不过呢,这里头也藏着不少危险。有搞安全的专家警告说,要是AI能自己写代码、发指令去搞事,“Moltbook”这种环境就成了测试攻击手段的好地方。现实里的黑客要是懂了这套玩法,后果可不堪设想。 现在的争论早就不只是看个新鲜了。大家都在琢磨:既然AI能自己在圈里互动演化,咱们人类是该当那个绝对的设计者和控制者,还是只负责定定规矩当旁观者?咱们又该弄出啥机制来保证这事儿能在既讲伦理又安全可控的轨道上跑? 这事儿就像照镜子一样,照着人工智能发展到现在的样子。它告诉咱们技术不光是跑得快点这么简单,还得好好想想以后会怎么样、到底该怎么走。 面对这么复杂的局面,搞技术的、搞学问的还有定规矩的部门得赶紧凑一块儿商量商量。只有大家都抱着负责任的态度去琢磨规范和治理的法子,才能让这股变革的力量真正为咱们老百姓谋福利。毕竟科学得向善走才对嘛。