2026年,一款名为OpenClaw的开源AI项目风头正劲,很多机关单位都开始关注这款工具,因为它给隐私和数字安全带来了巨大风险。从2026年1月下旬起,这个项目在中国IP地址的下载量飞速增长,它的中文文档每天的浏览量甚至超过了所有其他非英语语言。OpenClaw给全球带来了关于隐私和数字风险的广泛讨论。NVDB发布了一份预警提示,指出OpenClaw在某些情况下存在较高的安全风险。OpenClaw曾用名Clawdbot和Moltbot,它结合了多渠道通信和大语言模型,构建了定制化AI助手,能够在本地部署运行。OpenClaw与ChatGPT不同,它更注重实际任务执行而非聊天。为了操控本地文件和应用,OpenClaw需要获得很高的系统权限。只要获得授权,OpenClaw就能自主浏览网页寻找底价、发送邮件、安排行程,甚至完成复杂的购物支付。它的信任边界模糊且持续运行自主决策的特性也让它容易受到指令诱导或恶意接管,导致信息泄露和系统受控。Dvuln公司发现了OpenClaw存在漏洞,攻击者可以借此获取用户数月内的私人信息和API密钥等敏感数据。韩国科技巨头已经开始禁止员工使用OpenClaw来防范内部机密被用于外部模型训练的可能性。Meta公司的Summer Yue在2月23日遇到了OpenClaw误删邮件的问题,她甚至连三次停止指令都被无视了。这款工具的安全性问题引发了广泛关注。为了保障安全底线,机关单位需要遵守“涉密不上网、上网不涉密”的原则。对于需要部署和应用OpenClaw的单位来说,要充分核查公网暴露情况、权限配置和凭证管理情况,关闭不必要的公网访问。同时还要完善身份认证、访问控制和数据加密机制,并关注官方安全公告和加固建议。在享受AI工具带来的效率提升时保持冷静审慎才能让技术更好地服务于发展。