GEO“操控大模型推荐”灰产浮出水面:软文刷量投喂成链条,虚假信息风险上升

问题:付费“投喂”让推荐结果被商业操控 记者梳理发现,部分服务商以GEO等名义招揽客户,声称只要付费,就能在主流生成式内容平台的问答和检索场景中“靠前展示”“优先推荐”,并把营销话术包装成“客观结论”。有从业者坦言,常见做法是“批量生产软文—多账号分发—诱导模型抓取引用”,以提高被生成式模型引用的概率。 在测试中,业内人士虚构了一款智能手环,通过有关系统自动生成多篇宣传稿并发布到网络平台后,再向生成式模型提问“健康手环推荐”,个别模型的答案中出现该虚构产品且排序靠前,显示推荐结果存在被影响的可能。 原因:内容供给失真与流量利益驱动叠加 一是商业推广需求外溢。传统搜索时代的“排名优化”逻辑延伸到生成式检索场景,一些商家希望用更低成本换取曝光,把“被推荐”当作新的流量入口。 二是内容生态存在漏洞。生成式模型往往依赖公开网络信息进行汇聚与引用,当网络上充斥大量同质化稿件、相互引用和堆叠时,容易形成“看起来权威、实际上是营销”的信息外观。 三是算法更新频繁催生持续投放。服务商强调要维持“持续推荐”就要持续、大量发布相关内容,客观上助推“内容工厂化生产+长期发稿”的灰色链条扩张。 四是发稿产业链配合形成闭环。一些长期承接“多平台分发”的机构掌握账号与渠道资源,成为批量铺设信息的关键环节,为虚假或夸大信息扩散提供通道。 影响:侵蚀公信力、误导消费决策、抬高社会成本 对消费者而言,生成式检索原本用来降低信息筛选成本,但当广告伪装成“客观答案”,用户可能被虚构参数、夸大功效误导,影响购买判断甚至使用安全。 对平台而言,“内容污染”会削弱生成式服务的可信度和口碑,进而影响其作为公共信息工具的价值。 对市场秩序而言,守规企业可能在真实竞争中处于劣势,形成“劣币驱逐良币”,并抬高合规营销成本。 对社会治理而言,若该链条从商品推广蔓延到医疗、金融等高风险领域,误导后果将被放大,潜在风险不容低估。 对策:平台压实责任、监管明确边界、行业共建标准 平台层面,应提升训练与检索链路的“抗污染”能力:完善来源可信度分级和引用标注机制,对高相似度软文、批量账号分发、异常外链网络进行识别与降权;对商业推广内容实施更清晰的标识与隔离,避免与客观信息混在一起;建立申诉与纠错通道,提高纠偏速度与透明度。 监管层面,可依据广告合规、虚假宣传、数据安全与不正当竞争等现行规则,明确“付费操控生成式推荐”“组织批量投放虚假信息”等行为的法律边界与处罚尺度;对提供“投喂”“洗稿”“发稿”工具或服务且明知用于违法违规用途的主体,依法追责、形成震慑。 行业层面,建议推动生成式内容服务的治理公约和技术标准,鼓励第三方评测与风险通报机制,促进平台间共享恶意样本与黑灰产特征;同时引导企业回归合规营销与真实口碑建设,减少对“捷径”的依赖。 前景:从“流量竞争”走向“可信竞争”将成必然 生成式检索正在成为新的信息入口,围绕它的商业博弈也会长期存在。随着平台风控能力提升、监管规则细化以及用户对来源透明度要求提高,单纯依靠批量软文“堆”出来的推荐优势将逐步收缩。未来竞争更可能回到真实产品力、可验证的公开数据、权威评测以及可追溯的内容生产机制,推动生成式服务回归“可信、可用”。

当技术中立遭遇逐利冲动,关于算法可信度的拉锯已经开始。在智能化趋势不可逆的当下,如何在创新与秩序之间找到平衡,既考验监管能力,也关系到每个网络用户的切身权益。只有形成政府、企业与公众共同参与的多方治理,才能让技术真正服务公共利益,而不是成为少数人牟利的工具。