全国人大代表建言人工智能治理 构建安全防线护航高质量发展

一、技术扩张与治理缺位的结构性矛盾 人工智能正快速渗透经济社会各领域;从医疗影像辅助诊断、自动驾驶到政务服务、工业制造,技术迭代的广度与深度持续拓展。据统计,截至2025年底,我国生成式人工智能用户规模已达6.02亿人,普及率升至42.8%,累计备案的生成式智能服务达748款,人工智能已深度融入日常生活。 然而,技术的爆发式增长与治理体系的相对滞后之间,正形成日益明显的结构性张力。全国人大代表在今年两会期间指出,若不提前布局、系统应对,安全漏洞、隐私侵害与伦理失范等问题,不仅会制约产业发展,更可能威胁个人权益、社会秩序乃至国家安全。 二、挑战的多维性与治理的复杂性 当前人工智能领域的风险挑战,已表现为多维度、深层次的复杂态势。 技术层面,自动化决策与生成式技术的滥用催生了网络诈骗、知识产权侵害等新型违法行为。在自动驾驶、医疗机器人等高风险场景中,算法故障引发的事故往往难以厘清开发者、部署者与使用者之间的责任边界。此外,基础模型的"幻觉"问题、深度伪造技术的滥用以及对抗性攻击的潜在威胁,对供给侧的可信能力提出了更高要求。 场景层面,我国人工智能应用已覆盖多个行业,并加速走向全球化。不同行业对风险的容忍度差异显著,加之各国文化背景与法律体系的分歧,跨境治理难度深入加大。单一化、同质化的监管模式,难以适配多元化的应用业态。 体系层面,跨部门、跨领域的协同监管机制尚不健全,供给侧可信能力建设相对薄弱,核心防护技术有待突破,治理体系的适配性与协同效能仍有较大提升空间。 三、治理滞后的潜在影响不容低估 人工智能的自我进化与自主决策能力,在提升效率的同时也显著增加了风险的不可控性。若缺乏有效的前置防控机制,数据泄露、算法偏见、技术滥用等问题将持续扩散,侵蚀社会信任,加剧数字鸿沟与社会分化。 更深远的影响在于国际竞争层面。人工智能已成为全球科技博弈的核心战场。构建完善的安全与伦理治理体系,既是防范技术风险的内在需要,也是提升我国人工智能产业国际竞争力、落实《全球人工智能治理倡议》的战略选择。治理能力的强弱,将在相当程度上决定我国能否在全球智能产业格局中占据主动。 四、三项系统性建议提供清晰路径 针对上述挑战,全国人大代表提出了三项具有较强操作性的建议。 其一,健全人工智能标准体系,明确多元治理责任。建议建立分级分类、风险导向的管理体系,由涉及的部委统筹协调,鼓励重点行业联盟牵头制定医疗、金融、自动驾驶等垂直领域的安全与伦理专项标准,将伦理原则转化为可操作的实践指南,在守住合规底线的同时,为技术创新保留必要空间。 其二,强化技术源头防控,筑牢安全根基。建议聚焦供给侧可信能力建设,集中力量突破幻觉治理、深度伪造鉴别、对抗攻击防护等核心技术,推动基础模型实现原生合规。同时,可借鉴北京人工智能数据训练基地"监管沙盒"的实践经验,在风险可控的前提下选取重点领域开展试点,允许创新技术在真实场景中测试优化,推动技术成果加速转化。 其三,构建多元共治生态,凝聚治理合力。建议指导成立"伦理治理联盟",汇聚政府部门、科研机构、行业企业与社会组织等多方力量,推动人工智能治理从单一行政管控向多元参与、共建共治的现代化模式转型。

治理不是给技术"设限",而是为创新"定界"。面向深度融合、加速普及的新阶段,只有把风险识别前移到标准和源头,把责任落实到链条各环节,把社会共识转化为可执行规则,才能在促进新质生产力成长的同时,守护个人权益与社会运行的确定性,让技术进步更好服务于发展与安全的统一。