问题:从“智能助手”到“推销员”?
在不少用户体验中,生成式人工智能已成为日常信息获取的重要入口。
但当人们向其咨询选购建议、健康常识或理财提示时,部分回答引用的“信息源”却呈现明显商业导向:推荐集中指向特定品牌或产品,措辞更像营销文案,甚至以“测评”“攻略”“经验分享”的面貌出现,使用户难以辨别其是否属于广告内容。
信息被披上“客观结论”的外衣,带来新的信任裂缝——用户究竟是在获取建议,还是被引导消费?
原因:隐性投放之所以出现,一方面在于商业利益与流量逻辑的迁移。
过去广告更多依赖搜索排序、信息流推荐等渠道,如今生成式问答成为新的注意力高地,商家希望在“答案”中占据位置。
由此衍生出以影响模型输出为目的的“生成式引擎优化”服务:通过制造高度相关的网页内容、集中发布“种草”文本、强化关键词与实体绑定等方式,提高被模型抓取、引用和总结的概率。
另一方面,内容生产门槛降低、网络信息生态复杂,客观事实与营销叙事在语料层面交织,模型在训练和检索环节可能被“污染”,导致回答倾向性增强。
再者,现行广告识别多建立在传统媒体与平台分发机制之上,而生成式内容常以对话形式呈现,标识义务、审核方式、责任边界尚需进一步细化,给“擦边”操作留下空间。
影响:其一,损害消费者知情权与选择权。
按照广告应当具有可识别性的基本要求,受众应能清晰辨认商业信息,但隐性嵌入的推广内容弱化了识别线索,使用户在不知情状态下被影响判断。
其二,扰乱公平竞争秩序。
若通过操纵语料、编造“口碑”来影响回答结果,实质上是以不正当方式争夺市场机会,挤压守法经营者空间。
其三,侵蚀数字市场透明度与可信度。
一旦用户对生成式回答的中立性产生普遍怀疑,技术带来的效率红利将被信任成本抵消。
其四,带来更高风险外溢。
医疗、金融、公共政策等领域对信息真实性要求极高,若隐性广告与虚假信息渗入决策链条,可能引发更大范围的社会与安全风险。
对策:治理需坚持“发展与规范并重”,关键在于前移监管关口、贯通全流程责任链。
第一,完善规则与执法衔接,明确生成式场景下的广告认定与标识要求,推动“可识别性”落到对话界面、引用来源、推荐链接等具体呈现方式上;对未履行标识义务、故意混淆广告与普通信息的行为依法依规处理,形成震慑。
第二,压实平台与服务提供者主体责任。
平台应建立更严格的内容审核与风险提示机制,强化对商业合作、品牌露出、导流链接的管理,明确“广告—普通内容”的边界,清理灰色操作空间;对涉嫌捏造事实、误导宣传的内容及时处置并留痕追溯。
第三,提升技术治理能力。
针对模型训练与检索环节,建立语料采用、清洗与质量评估标准,推动对“语料污染”的识别与处置:对集中发布的营销模板、虚构评测、刷量口碑等异常内容提高识别能力,减少其进入训练与引用链路的机会。
第四,强化重点领域的更高标准监管。
在医疗、金融等高风险场景,推动更严格的准入、审查与追责安排,必要时对推荐类功能设置更审慎的使用边界与提示义务,守住公共安全底线。
第五,发挥行业组织与社会监督作用,形成可操作的行业规范与自律约束,鼓励对隐性广告、虚假信息的举报与溯源,共同维护清朗的信息生态。
前景:生成式人工智能广泛应用是数字经济演进的重要趋势,也为提升信息获取效率、优化公共服务提供新工具。
但技术进步不能脱离边界运行。
未来一段时期,围绕生成式内容的透明度、可追溯性与责任划分,将成为数字治理的重要议题。
只有把规则立在前面,把责任压到链条各环节,并持续提升技术治理与法治供给能力,才能在保障创新活力的同时,稳定公众预期,维护公平竞争与市场信用,让新技术更可靠地服务经济发展和社会生活。
AI"藏广告"的现象,本质上是技术变革浪潮中对市场规则的一次挑战。
这既是对监管能力的考验,也是对数字经济健康发展的重要提醒。
制度建设须跑在风险之前,监管创新要与技术进步同步。
唯有将规范立在前面,把责任落到实处,才能确保生成式人工智能在造福社会的同时,不沦为商业投机的工具。
在数字经济快速发展的背景下,生成式人工智能治理既是新课题,也是必答题,需要政府、企业、行业组织和全社会的共同努力,才能让技术创新行稳致远,为高质量发展注入持久动力。