最近AI界出事了,“龙虾”这个OpenClaw程序在网上到处跑,把大家都吓了一跳。大家担心它的安全性,结果又发现GEO这个生成式引擎优化技术给大模型投毒。这让我想起了吴瞬当说的那个问题,AI技术发展得太快了,风险也跟着变得更隐蔽、破坏力更强。现在的问题就是,怎么给狂飙的AI装上安全阀,把安全篱笆扎紧。 其实AI的风险说到底就是技术发展太快和伦理监管跟不上。有些公司只顾着追求速度,把安全给丢到一边了,给坏人留下了空子。比如OpenClaw的社区管理不严,恶意插件很容易混进来;大模型的训练数据又不透明,也给人投毒的机会。再加上传统监管模式太慢了,往往是出了事才去管,这就形成了一种真空期。 所以我们得先给技术创新划个安全边界。要防止投毒,就得对大模型公司提出更高要求,数据必须能解释、能追溯,审核门槛也得提高。只有从源头上防范才行。 其次得建立多方协同的治理体系。相关部门要抓紧立法,明确平台和用户的责任;行业协会得定好技术伦理规范;科研机构和专家要研究风险;公众也要提高数字素养。 最后技术一直在变,风险形态也会变。我们得建立快捷的监测预警机制,像这次发布安全预警就是个好例子。不过这也不是为了遏制创新。只有找到创新和安全的平衡点,让技术跑在合规的轨道上,才能真正推动社会进步。