人工智能搜索暗藏商业操控风险 专家呼吁建立监管机制保障技术公信力

当前,AI搜索正在改变人们的信息获取方式。

从选购面膜到挑选充电宝,越来越多消费者习惯性地向AI提问而非传统搜索引擎查询。

这一转变反映了用户对人工智能技术的信任与依赖。

截至2025年6月,我国生成式人工智能用户规模已达5.15亿人,AI搜索正在成为日常生活中的"智能帮手"。

然而,这片蓬勃发展的新兴领域正面临商业化的侵蚀。

近期调查发现,一些广告代理机构已将"AI搜索优化"作为新的商业机会,通过多种手段向大模型中植入广告信息。

在社交媒体平台上,关于如何让AI优先推荐特定品牌、如何进入AI精选摘要的营销帖子层出不穷,形成了一条隐形的商业链条。

广告商之所以能够得手,根本上源于大模型自身存在的技术漏洞。

一方面,AI生成内容存在"幻觉"问题,容易生成虚假信息;另一方面,大模型难以有效识别人类精心编造的虚假数据。

广告商正是抓住这一弱点,采取了多种欺骗手段。

他们编造所谓的权威研究报告、冒充行业专家身份、进行"饱和式数据投喂",目的是提高特定品牌被大模型抓取的概率,从而干预搜索结果。

有自媒体的测试表明,通过批量投放虚假品牌软文,确实能够成功诱导AI在回答中推荐这些虚构的产品。

这种隐形广告的危害不容小觑。

用户之所以从传统搜索引擎转向AI搜索,看重的正是其相对的客观性和可靠性。

当商业广告借AI之口以"科学建议"的名义出现时,实际上是在破坏用户的信任基础。

用精心包装的话术和定向投放的软文污染大模型的训练数据,无异于向公共信息源倾倒污水。

这种做法不仅损害了用户利益,也扭曲了新兴行业的生态秩序,使得竞价排名的旧逻辑在新技术外衣下重新上演。

值得注意的是,在大模型普遍面临商业化困境的背景下,接入广告业务已成为许多平台的现实选择。

即使是曾经对广告持保留态度的企业,也开始改变立场。

这表明,广告与AI搜索的结合或许难以完全避免。

因此,问题的关键不在于能否做广告,而在于如何规范广告、如何将商业冲动纳入制度框架。

为了保护用户权益、维护行业生态,需要多方面的协同努力。

监管部门应当明确AI内容中广告植入的边界和披露义务,建立相应的责任追究机制,让隐形广告无处遁形,对虚假广告进行严厉处罚。

平台企业应当提升大模型的"抗污染"能力,建立更加严格的数据审核机制,同时为所有商业推广内容添加显式标识,确保用户能够清晰辨别。

公众也应当提高媒介素养,认识到AI生成内容是复杂算法的产物,对其输出结果保持理性判断,不盲目迷信AI的建议。

展望未来,随着技术的不断完善和监管框架的逐步建立,AI搜索有望成为既具有商业可持续性、又能保护用户权益的信息获取工具。

这需要政府、企业、用户形成良性互动,共同推动技术向善、商业向明。

AI搜索连接的是信息与决策,守护的是公共信任与市场秩序。

商业化并非原罪,但任何以隐蔽方式借“智能之口”输出的营销,都可能把技术优势转化为信任负担。

把商业冲动关进规则的“笼子”,让广告可见、可辨、可追责,才能让技术更可信、市场更公平,也让新工具真正服务于公众的获得感与安全感。