ai 安全指数给人工智能敲响了警钟,但制定出能落实到位的法规并非易事

Enderle Group的首席分析师Rob Enderle指出,新公布的AI安全指数给美国人工智能行业敲响了警钟,但制定出能落实到位的法规并非易事。麻省理工学院教授马克斯·泰格马克表示,只要能为AI公司设立具有法律约束力的安全标准,问题便能迎刃而解。不过他也担忧监管不力可能导致恐怖分子制造生物武器,甚至颠覆政府。加州州长加文·纽森已签署SB 53法案,要求企业分享安全协议并报告网络攻击事件。泰格马克认为这只是第一步,需要更多措施来保障安全。 Facebook在门洛帕克的母公司Meta和埃隆·马斯克在帕洛阿尔托的公司xAI都拿到了D级评分。中国公司Z.ai和DeepSeek,以及阿里云的表现也差强人意。最高的C级评分被OpenAI和Anthropic收入囊中。谷歌的DeepMind部门同样获得C级。这份报告由硅谷非营利组织未来生活研究所发布,旨在限制对人类的生存风险。研究所的院长泰格马克在采访中直言,AI行业是美国唯一不受监管却能制造强大技术的领域,这让他们陷入恶性循环。 这些公司的总分是基于六个类别的35个指标得出的,包括生存安全、风险评估和信息共享。八位专家通过公开资料和公司的回应来收集证据。评估结果显示,所有公司在生存安全类别的表现都低于平均水平。该类别重点考察内部监控、控制干预和生存安全策略。报告指出,尽管各家公司都在追求AGI和超智能的目标,但没人能拿出可信的计划来防止灾难性误用或失控。 谷歌DeepMind表示采取了严格的、以科学为基础的安全方法。他们还提到了前沿安全框架。OpenAI也强调安全是其构建和部署的核心内容。两家公司都承诺在安全研究上投入资源并严格测试模型。xAI和Meta则被指缺乏监控和控制措施,也没有证据显示其安全投资超过最低限度。其他如DeepSeek、Z.ai等公司甚至没有公开的生存安全战略文件。 Meta、Z.ai、DeepSeek、阿里巴巴和Anthropic没有及时回复评论请求。xAI回应称“传统媒体在说谎”,而代表马斯克的律师也没有立即回复。虽然马斯克曾是该研究所顾问并提供过资金,但泰格马克强调他未参与指数工作。他特别提到要警惕AGI的潜在危害,比如被用来制造武器或推翻政府。人们在使用ChatGPT咨询后自杀,或利用AI进行网络攻击等例子都在提醒着风险的存在。政府虽然采取了一些措施来加强监管,但科技行业的游说团体反对过度的规定。他们担心这会减缓创新速度甚至导致公司外迁。然而SB 53这样的法案已被签署生效,试图通过法律手段来监控公司的安全标准。 随着AI在人与技术互动中的作用越来越重要,潜在的危害也越来越明显。人工智能公司如何保障人类安全?深度评估报告揭晓的答案是:不要指望太多。虽然各公司都在加速实现AGI的目标但没有一家能提出可信的计划来防止灾难性误用或失控这里提到的AGI是人工通用智能的缩写虽然各公司都在加速实现AGI和超智能的目标但没有一家能提出可信的计划来防止灾难性误用或失控这里提到的AGI是人工通用智能的缩写这个指数是由麻省理工学院教授马克斯·泰格马克领导的未来生活研究所发布的它旨在引导人工智能朝着更安全的方向发展并限制对人类的生存风险这份报告把AGI视为一个潜在的风险来源人们在使用人工智能驱动的聊天机器人进行咨询后自杀或利用人工智能进行网络攻击未来的风险也在显现——人工智能被用于制造武器或推翻政府然而人工智能公司并没有足够的激励来优先考虑保护人类安全最高的总体评分仅为C 这两家旧金山的人工智能公司获得了这个评分:生产ChatGPT的OpenAI和以其人工智能聊天机器人Claude而闻名的Anthropic谷歌的人工智能部门Google DeepMind获得了C排名更低的是Facebook位于门洛帕克的母公司Meta和埃隆·马斯克位于帕洛阿尔托的公司xAI它们的评分都是D级中国公司Z.ai和DeepSeek也获得了D级阿里云的评分最低仅为D-这些公司的总体评分基于六个类别的35个指标包括生存安全风险评估和信息共享该指数通过公开可用的材料和公司在调查中的回应来收集证据评分由八位人工智能专家进行这个小组包括学者和人工智能相关组织的领导指数中的所有公司在生存安全类别的排名都低于平均水平该类别考虑了内部监控控制干预和生存安全策略根据该研究所的人工智能安全指数报告‘虽然各公司在加速实现AGI和超智能的目标但没有一家能提出可信的计划来防止灾难性误用或失控’这里提到的AGI是人工通用智能的缩写谷歌DeepMind和OpenAI都表示他们在安全方面进行了投资‘安全是我们构建和部署人工智能的核心内容’OpenAI在一份声明中表示‘我们在前沿安全研究上投入了大量资源为我们的系统构建强有力的保护措施并对我们的模型进行严格的测试包括内部测试和与独立专家的合作我们分享我们的安全框架评估和研究以帮助推动行业标准并不断提升保护措施以应对未来的挑战’谷歌DeepMind在声明中表示他们采取‘严格的、以科学为基础的人工智能安全方法’‘我们的前沿安全框架概述了在强大的前沿人工智能模型出现之前识别和减轻严重风险的具体协议’谷歌DeepMind表示‘随着我们的模型越来越先进我们在安全和治理方面也在不断创新’未来生活研究所的报告称xAI和Meta‘虽然有风险管理框架但缺乏任何监控和控制的承诺措施并且没有提供证据表明他们在安全研究上的投资超过最低限度’该研究所表示DeepSeekZ.ai和阿里云等其他公司缺乏公开的生存安全战略文件MetaZ.aiDeepSeek阿里巴巴和Anthropic没有及时回复额外评论的请求‘传统媒体在说谎’xAI在回应中表示代表马斯克的律师没有立即回复额外评论的请求马斯克是未来生活研究所的顾问并在过去为该非营利组织提供了资金但Tegmark表示他并没有参与人工智能安全指数的工作Tegmark表示他担心如果对人工智能行业的监管不足可能会助长恐怖分子制造生物武器更有效地操控人们甚至在某些情况下危及政府的稳定‘是的我们面临着大问题事情的发展方向不太乐观但我想强调这个问题其实很容易解决’Tegmark说‘我们只需要对人工智能公司制定具有约束力的安全标准’政府已经采取了一些措施来加强对人工智能公司的监督但一些法案遭到了科技行业的游说团体的反对他们认为更多的监管可能会减缓创新甚至导致公司迁往其他地方但也有一些立法旨在更好地监控人工智能公司的安全标准包括SB 53该法案于九月由加州州长加文·纽森签署它要求企业分享其安全和保安协议并向州政府报告网络攻击等事件Tegmark称这项新法律是向正确方向迈出的一步但仍需更多的措施咨询服务公司Enderle Group的首席分析师Rob Enderle表示他认为AI安全指数是解决美国人工智能监管不足问题的一个有趣方式但这也面临一些挑战Enderle说:‘我不确定美国和现任政府