一、问题:虚构商品也能被"推荐" 央视记者暗访显示,部分所谓"优化服务"实际上是通过大量生成文章、评论和测评内容,诱导大模型在回答中引用并推荐涉及的产品。 在测试中,参与者虚构了一款名为"Apollo-9"的智能手环,编造功能卖点和用户反馈,然后用自动化工具在短时间内生成多篇文章,投放到各个自媒体平台。随后,大模型在检索和生成回答时引用了这些虚构信息,对这款根本不存在的产品给出了"正式推荐"并建议购买。投放更多"测评"内容后,相关推荐在多个大模型的回答中出现,且排名靠前。一个虚构的商品就这样被包装成了"可信选择",对消费者形成实质性误导。 二、原因:逐利驱动叠加技术门槛与审核短板 从曝光的服务套餐看,这类服务以年费方式售卖,价格从数千元到上万元不等,高端版本可实现高频、批量生成内容并持续投放。服务商声称客户覆盖多个行业,核心卖点是"让品牌在大模型问答中更靠前"。这反映出三个主要原因: 其一,营销竞争从传统搜索转向问答式检索。品牌方对"被回答、被推荐"的需求急速增长,催生了投机空间。过去网络营销依赖搜索引擎优化,如今大模型成为新的信息入口,一些机构把"影响回答"包装为新型增长手段。 其二,内容生产自动化降低了造假成本。自动生成文章、批量发布、矩阵传播,使虚假信息更容易在短期内形成"看似丰富"的证据链,干扰模型对信息可靠性的判断。 其三,信息生态治理存在缺口。部分平台对软文、伪测评和虚假账号的识别处置不及时,跨平台搬运与拼接现象加剧。而大模型在训练与检索环节可能抓取到被污染的内容,若缺乏有效的来源分级、交叉验证与风险提示,就容易把"噪声"当成"事实"。 三、影响:扰乱市场秩序,侵蚀信任基础 业内人士认为,恶意投喂数据、操纵推荐结果并牟利,涉嫌触碰《广告法》《反不正当竞争法》《消费者权益保护法》等法律红线。其危害不仅在于让消费者"买错东西",更在于三重外溢效应: 一是侵害消费者知情权与选择权。大模型回答看起来像是"综合判断",一旦被虚假内容操控,误导性更强、传播更快。 二是扰乱公平竞争。依靠造假与操控获得曝光,挤压守法经营者的生存空间,导致"劣币驱逐良币"。 三是危及信息系统安全与公共信任。一旦"污染"蔓延到医疗、教育、金融等领域,错误建议可能带来更严重后果。同时也会削弱公众对大模型问答的信赖,影响产业健康发展。 四、对策:多方协同构建"可追溯、可识别、可惩戒"机制 曝光后,部分电商平台已对涉事商品下架,但类似服务仍可能改头换面。治理此类问题需要多方协同: 第一,强化执法与案例震慑。对"虚假宣传+技术操控"的复合型违法行为依法从严查处,明确责任链条,对组织者、工具提供者、委托方分别追责,形成可复制的执法范式。 第二,压实平台主体责任。内容平台应完善软文、伪测评、异常账号与批量发布的识别模型,加强跨平台线索联动与黑名单共享。电商平台应对相关"优化服务"加强准入审核与持续巡检。 第三,提升大模型抗污染能力。通过来源可信度分级、权威数据优先、交叉验证、多源印证、引用标注与风险提示等方式,降低对低质量内容的依赖。对疑似营销操控内容触发降权机制,必要时对相关回答进行提示或拒答。 第四,推动行业合规与公开承诺。多家企业已发布合规声明,下一步应从"声明"走向"制度",建立可审计的服务边界,明确不得提供"操控标准答案""短期刷排名"等服务,并保留日志、证据以便监管核查。 第五,提升公众识别能力。引导用户对大模型推荐保持审慎,尤其涉及购买、医疗、教育等决策时,坚持多渠道核验,以权威机构与正规渠道信息为准。 五、前景:以规范促发展 生成式引擎优化本质上是围绕新型信息入口的内容适配,但"适配"不应等同于"造假"和"操控"。随着监管规则完善、平台治理升级、模型安全能力增强以及行业自律落地,大模型问答的可信度有望继续提升。未来,合规方向可能更强调真实信息的结构化呈现、可验证数据的引用与透明标注,让企业通过产品质量、服务口碑和真实评价进入公众视野,而不是通过批量虚构内容夺取注意力。
此次3·15曝光事件为AI技术与商业应用的规范化敲响警钟。在技术浪潮中,如何平衡创新与监管、效率与公平,将成为数字经济发展的重要课题。唯有筑牢技术伦理与法律底线,才能让科技真正服务于社会福祉。