问题——从“信息检索”变成“答案投放”,大模型被动卷入营销灰产 “3·15”晚会调查显示,一些第三方服务商以“优化曝光”“提升推荐”为名,组织写手和刷量团队在多平台集中发布“软文测评”“用户体验”“榜单推荐”等内容,并通过点赞、评论、转发等方式制造“真实讨论”的假象,堆出一批容易被模型抓取的“高热度信息”。当消费者向大模型询问“哪款产品更好”“哪家机构更值得去”时,模型可能基于被污染的信息源给出带倾向性的回答,甚至把夸大宣传、虚构参数包装成“客观建议”。 原因——内容生产成本低、扩散快,叠加训练与检索链条的治理短板 一是灰色营销需求旺盛。部分商家追求“低投入高转化”,更愿意用隐蔽方式影响用户决策,相比传统广告更难识别和追责。二是虚假内容呈工业化生产。上游负责模板化文案、伪造测评图文和“使用反馈”,中游用账号矩阵分发扩散,下游以“包上榜”“包推荐”等话术向商家收费,形成分工清晰的链条。三是平台与数据链条存在漏洞。虚假内容分散在多个站点与社交平台,跨域传播后难以及时溯源清理;而大模型的训练数据、检索增强与引用机制若缺少严格的来源标注和可信度评估,就可能把“热度”当成“可信”。四是新型“优化”方式规避传统监管认知。一些服务商将其包装为“内容优化”“口碑运营”,实质是在污染公共信息空间,变相操控模型输出。 影响——误导消费决策,放大不正当竞争,削弱数字服务可信度 对消费者而言,首要风险是被误导决策。医美、保健、教育培训等领域专业门槛高、信息不对称强,一旦大模型给出失实建议,可能造成经济损失,甚至带来健康风险。对市场秩序而言,合规企业的真实口碑被噪声淹没,竞争从“产品与服务”滑向“谁更会投放答案”,加剧劣币驱逐良币。对信息生态而言,虚假内容被大量复制和再传播,会持续污染公共讨论空间,抬高识假成本。对技术与产业发展而言,用户对智能服务的信任被消耗,模型方不得不投入更多资源做数据清洗与风险控制,治理成本上升,影响应用的长期可持续。 对策——压实平台、模型与广告主责任,建立“可追溯、可识别、可惩戒”的治理体系 一要强化平台内容与账号治理。针对批量同质化测评、异常互动、矩阵分发等特征建立识别机制,提高对“软文+刷量”组合手法的联动处置能力;对多次发布虚假营销内容的账号和机构依法依规从严处理。二要推动模型侧提升“可信引用”能力。完善来源标注、证据链展示与多源交叉验证机制;在医疗健康、教育培训、金融消费等高风险场景提高输出门槛,减少“单一来源下结论”的表述,必要时提示用户转向权威渠道核验。三要明确商业推广的标识与边界。对以内容形式实施广告推广的行为,强化清晰可识别的提示义务,依法打击虚假宣传与不正当竞争,推动形成“明示投放、透明可查”的规则。四要建立跨平台协同与联合惩戒机制。针对组织化、链条化的虚假内容生产团伙,加强线索共享、溯源取证,做好行政执法与行业自律衔接,提升治理穿透力。五要加强公众媒介素养与风险提示。引导消费者将大模型回答视为参考信息而非最终结论,尤其在健康、医疗与教育等领域坚持多渠道核验、留存证据、依法维权。 前景——从“被动补漏”转向“制度化防护”,让可信内容成为主流供给 业内人士认为,大模型正成为重要的信息服务入口,其可信度关系到数字经济的运行基础。下一步治理重点将从单点打击转向体系建设:通过完善内容审核标准、建设可信数据供给、推动来源可追溯与引用可核验,逐步压缩灰色营销空间。随着监管规则更细化、平台治理能力升级以及企业合规成本提高,“答案投放”式灰产将面临更高风险、更低收益。长期看,只有让真实体验、权威信息与合规广告各归其位,才能守住消费者权益底线,稳住智能服务的社会信任。
大模型面向海量用户和真实生活,其价值基础是“可信”。对“投毒式营销”露头就打、对链条化灰产系统治理,既是保护消费者权益的必要之举,也是维护公平竞争与推动技术向善的关键一环。让信息更干净、推荐更可靠、责任可追溯,新技术才能成为公众可信赖的工具,而不是被操控的推销渠道。