问题——以“演示”之名放大风险,测评边界引发争议。
近期,网络平台上出现针对某手机智能助手的“攻破式测评”视频与言论:相关人士通过精心设置的诱导话术,模拟攻击链路,使产品在特定语境下出现应答偏差或逻辑漏洞,并据此作出“产品不安全”等结论,引发企业回应与公众讨论。
事件之所以迅速发酵,既因人工智能应用与个人信息、终端安全高度关联,也因“公开展示攻击细节”容易造成恐慌情绪,影响用户判断。
原因——技术复杂性叠加流量驱动,合规意识与行业规范被弱化。
必须看到,网络安全领域长期存在“攻防无止境”的客观现实。
任何系统都可能在特定条件下暴露缺陷,人工智能系统更因模型结构复杂、训练数据广泛、与外部工具及内容生态耦合程度高,风险呈现出动态性、场景性和联动性。
一些问题并非单点漏洞即可概括,而是“提示诱导—模型回答—应用执行—权限边界”多环节共同作用的结果。
与此同时,个别测评将“吸引眼球”置于“修复改进”之上,倾向于用极端场景推导一般性结论,以戏剧化叙事替代严谨论证;甚至绕开厂商沟通、第三方协调与主管部门报送环节,直接面向公众展示攻击过程。
此类做法不仅容易误导消费者,把技术瑕疵等同于系统失守,还可能使漏洞信息被不法分子复制利用,放大现实风险。
影响——既可能增加实际安全隐患,也会扰动创新节奏与行业预期。
从用户侧看,未经处置的漏洞细节公开传播,可能降低攻击门槛,诱发模仿行为,增加终端及数据被滥用的概率。
对企业而言,若舆论将“可修复的缺陷”简单上升为“不可用、不可信”,容易造成市场信心波动,迫使企业采取过度保守的产品策略:功能收缩、权限收紧、开放能力减少,进而影响用户体验和产业效率。
从行业发展看,我国正推动人工智能应用规模化落地,产业链涵盖模型、芯片、系统、终端、云服务与应用生态。
若测评生态偏离“建设性监督”,以对抗式、情绪化方式主导公共讨论,不仅不利于形成统一的安全基线与评价体系,还可能让真正扎实的安全研究被流量噪声淹没,削弱社会对专业安全工作的信任。
对策——以法治为底线、以修复为导向,形成“评测—披露—整改—复核”闭环。
其一,测评必须守法守规,严守披露边界。
我国《网络产品安全漏洞管理规定》明确提出对漏洞信息的管理要求,强调不得非法发布、不得利用漏洞从事危害网络安全活动,并对披露程序作出约束。
相关从业者、机构和平台应强化合规意识:发现漏洞优先通过正规渠道提交厂商并协助复现与修复,必要时按规定向相关主管部门或平台备案报送,在风险可控前不公开关键细节。
其二,完善第三方评测规范与分级披露机制。
行业协会、标准组织可推动形成更可操作的模型与应用安全评测指南,明确测试范围、攻击复现条件、证据标准、披露时限与风险分级,建立“先通报、后公开”的秩序,鼓励开展不以博取关注为目的的安全研究。
其三,企业要把安全能力前置,把“防诱导、防越权、防外部工具滥用”作为系统工程。
包括但不限于:强化权限边界与最小化调用原则;对高风险指令、敏感信息与外部链接建立多重校验;引入红队演练与持续监测;对模型输出进行策略约束与可追溯记录;建立漏洞响应与奖励机制,缩短从发现到修复的周期,用透明的整改行动赢得信任。
其四,媒体与平台应坚持事实核验与风险提示。
对安全事件报道应注重专业性与公共利益,避免用“标签化、恐慌式”表达替代技术事实;对涉及漏洞细节的内容传播,平台可依据规则进行风险处置与降噪管理,防止攻击方法扩散。
前景——在规范中发展,在迭代中可信,推动形成更成熟的安全治理格局。
人工智能正处于从“能用”向“好用”“可信”跃迁的关键阶段。
安全不是一劳永逸的结论,而是持续的能力建设与社会协同。
随着法规完善、标准体系健全、企业安全投入加大以及专业评测生态成熟,模型与应用的风险将更可识别、更可评估、更可治理。
未来一段时间,围绕终端助手、智能体工具调用、数据权限管理等领域的安全议题仍将频繁出现,但通过制度化流程与负责任披露原则,可将争议转化为改进动力,把“发现问题”真正导向“解决问题”。
科技的进步历来不是来自完美的起点,而是在问题的不断发现与解决中实现的。
人工智能作为当下最具革命性的技术,其成长需要的不仅是严格的安全标准,更需要全社会的理性态度和耐心期许。
真正成熟的社会应当懂得区分建设性的监督与恶意的炒作,懂得在坚守法治底线的同时为创新提供必要的生长空间。
当我们以更开放、更法治的心态去对待新兴技术的发展时,中国科技产业才能在国际竞争中积蓄更强的后劲,人工智能这一关乎未来的技术才能在包容的环境中实现真正的突破。