问题——能力跃迁与安全失衡的双重压力凸显 哈萨比斯近期就“更高等级人工智能”的风险发出警示。他认为,当系统能力接近或超过人类关键决策上的水平时,一旦在目标设定、可控性或对齐机制上出现偏差,后果可能被指数级放大,极端情况下甚至触及文明延续的底线。他强调,当前研发正在演变为竞赛:技术扩散、资本投入与市场预期相互推高,使“按下暂停键”的现实可能性越来越低;仅靠外部治理也很难在关键环节形成真正有约束力的规则。 原因——竞赛逻辑挤压治理空间,制度设计易被现实改写 回溯有关背景,哈萨比斯长期主张用更严格的安全框架约束高风险系统,包括引入独立监督、限制敏感用途、为关键能力设定“红线”等,并尝试通过组织架构和外部委员会保持安全议题的独立性。但在产业竞争持续升级的环境中,制度安排往往面临三重挤压:其一,模型迭代周期缩短,安全评估和发布节奏容易被商业窗口牵动;其二,多主体并行研发削弱了“单一机构自我约束即可控制扩散”的设想,外部参与者增多也使技术路线更难统一;其三,大型科技企业内部资源配置更偏向产品化与市场份额,安全团队在关键节点的否决权和话语权存在被弱化风险。基于此,他给出更贴近现实的判断:在难以形成一致外部约束的情况下,能否把控关键决策,很大程度取决于安全议题在组织权力结构中的位置以及能否持续施加影响。 影响——风险外溢与治理碎片化并存,全球规则窗口收窄 业内人士认为,该表态折射出人工智能治理的结构性矛盾:一上,通用能力模型门槛不断降低,技术扩散迅速,应用从内容生成延伸至科研、医疗、金融和公共治理,潜收益可观;另一上,系统性风险也同步扩散,既包括虚假信息与深度伪造抬高社会信任成本,也包括关键基础设施面临自动化攻击的安全隐患,更包括高能力系统“可解释、可控、可对齐”上仍缺少公认、可工程化落地的闭环。同时,治理碎片化继续加剧不确定性:不同国家和地区在标准、审查、责任认定和数据规则上差异明显,企业在合规套利与跨境部署中寻找空间,使统一约束更难落地。 对策——以“可验证的安全”替代口号式承诺,建立多层次约束框架 多位专家指出,面对高能力系统风险,需要从“原则宣示”转向“可验证、可追责、可执行”的制度与技术组合。 一是强化关键能力的分级管理与准入机制。对具备高危用途潜力的模型能力(如自动化漏洞利用、化生风险相关知识生成、规模化操控与欺骗能力等)开展强制评测,建立发布前门槛约束与持续监测要求。 二是推动第三方审计与红队测试常态化。将安全评估从企业内部流程扩展为可独立复核的公共机制,推动日志留存、训练数据合规、模型更新记录等可追溯要求,降低“黑箱”决策风险。 三是明确责任链条与惩戒措施。针对重大事故建立问责框架,细化开发者、部署方、平台方在不同环节的责任边界,形成与风险匹配的成本约束。 四是加大对安全基础研究与公共能力建设投入。围绕对齐方法、可控性、解释性、对抗鲁棒性等方向搭建跨机构合作平台,避免安全研究在竞赛中被边缘化。 五是推动国际协调与底线共识。围绕高风险用途、模型出口与算力资源配置等议题,探索最低限度的共同规则,减少“逐底竞争”。 前景——从“速度优先”走向“安全与创新并重”仍需时间与合力 观察人士认为,人工智能产业短期内仍将维持高强度竞争,依赖个人影响力或企业内部自律来守住安全底线,难以替代制度化、可审计的治理体系。未来一段时间,全球可能呈现“技术快速演进、监管渐进完善、重大事件倒逼规则升级”的阶段性特征。能否在不扼杀创新的前提下形成有效约束,取决于政府监管能力、行业自律水平、公众监督参与度以及跨境协同的深度。
人工智能带来的机遇前所未有,潜在风险同样不容低估;在技术竞赛难以逆转的情况下,治理必须跑在风险前面:既要鼓励创新,也要守住底线;既要追求效率,也要建立问责。真正决定未来走向的,不是某一家机构或某一个人的选择,而是全社会能否以制度化方式把安全作为“硬约束”,嵌入技术演进的每一个关键环节。