这东西低门槛让大模型能在本地跑起来是挺好的,但给了那么深的系统权限和高扩展性,

嘿,你们听说没?那个2026年的OpenClaw,就是天融信搞出来的研究报告里的主角,因为长得像个小龙虾,去年年底在GitHub上可是一下子就火了。这玩意号称是本地优先的AI智能体,说白了就是想让大模型变成咱们电脑上能干活的“数字员工”。可是工信部那边已经发预警了,说它风险太高。 这个平台的特点就是常驻在本地,还能模块化扩展、闭环执行。底层有渠道适配、智能决策、模型编排,还有技能和工具、记忆管理这些模块。它支持在个人电脑、Docker容器或者家庭服务器上跑,既接本地大模型也接云端的。它主要靠Skill机制来扩展能力,就是把一个个可复用的任务打包成模块。现在社区里公开的Skill都上万了,但问题也跟着来了。 你看这些Skill生态里,光恶意负载就有几百个,供应链攻击天天都在发生。还有用户自己瞎配置,风险也大得很:要么用不明来源的安装包,要么根本没加访问控制;凭证明文存着都不加密;管理端口直接暴露在公网;Token权限给得太大;程序也不带任何限制就跑起来了。 再加上它跟大模型交互是黑盒模式,数据隐私泄露的风险特别高,想追踪都难。最近还查出了好几个高危漏洞,比如CVE-2026-25253能让别人偷走你的Token还能远程一键执行代码;CVE-2026-24763涉及Docker沙箱命令注入;CVE-2026-25593是工具调用参数被注入了。虽然修好了但还是有中等风险的问题。 跟大模型打交道也有新的坑:提示词注入、“提示走私”成了新招数;记忆投毒能让人长期操控Agent;大模型有时候会幻觉,乱删文件或者损坏数据这种不可逆的操作也发生过。 工信部直接给了原则:最小权限、主动防御、持续审计。咱们在部署的时候得把系统权限管好点,别用root跑;最好还是容器隔离部署;绑定个本地监听地址;把API Key存加密了;Skill就别用乱七八糟的第三方仓库了。 运维这块也得跟上:定期检查系统权限、做好网络防护、定期换密钥、审一审Skill、记好日志、盯着漏洞和安全监控。这东西低门槛让大模型能在本地跑起来是挺好的,但给了那么深的系统权限和高扩展性,确实带来了不少风险。以后得靠规范化管理、严打Skill生态里的坏东西、持续修漏洞还有做安全审计来防范这些事儿。这样才能在利用生产力的同时,把风险控制住。