进入2026年,“数字泔水”一词持续引发讨论。
所谓“数字泔水”,是指互联网上大量外观“信息量很大”、实则知识密度低、来源不明、未经核实的内容,部分甚至以拼接、杜撰方式制造“看似合理”的叙事。
其共同特征在于追逐情绪强度而非事实质量,通过夸张、对立、猎奇等手法吸引点击与转发,易诱发非理性判断并加剧认知偏差。
问题在于,低质内容并非偶发,而呈现出规模化、链条化的传播态势。
现实中,从短视频平台的“校园霸凌”摆拍剧本,到微短剧渲染错误价值观的情节设计;从对经典作品的粗糙改编、误导性二次创作,到境外社交平台未经证实的“爆料”回流,再到借助真实新闻事件包装的“现场图片”“现场视频”等深度伪造内容,均可成为“数字泔水”的表现形态。
它们以碎片化、强刺激、强情绪的方式占据注意力,稀释优质信息的传播空间。
原因层面,“数字泔水”与流量收益机制相互耦合。
一方面,部分内容生产者逐利,选择成本更低、传播更快的“情绪型内容”,通过标题党、断章取义、虚构细节等方式提高转发率;另一方面,平台算法根据用户停留时长、点赞、评论、转发等行为信号进行推送优化,使情绪更激烈、互动更频繁的内容更容易获得曝光。
由此形成“情绪刺激—互动放大—算法再分发”的循环,当情绪被推至高点,低质内容便可能出现裂变式传播,带来难以估量的外溢影响。
与此同时,自动化工具与生成式技术降低了内容生产门槛,海量同质化、拼接化的信息得以快速生成并涌入网络,进一步放大治理难度。
影响方面,首当其冲的是公共信息环境被污染。
大量未经核实的信息混入正常资讯流,增加公众辨别成本,挤占理性讨论空间,干扰对公共事件的客观认知。
其次,情绪裹挟容易催生网络对立和群体性误判,甚至触发线下连锁反应,影响社会治理与舆论秩序。
更值得警惕的是对未成年人群体的冲击。
青少年信息识别能力和价值判断尚在形成阶段,容易在高频推送与情绪内容的包围中形成偏差认知,沉迷低质信息消耗注意力,长期可能影响学习、心理健康与价值观塑造。
治理“数字泔水”,实质上是对数智时代公共空间的守护,也是对社会个体特别是未成年人的保护。
对策上,关键在于以算法治理为抓手,推动治理从“碎片化应对”转向“系统性合力”。
一是完善制度供给与规则落地。
近年来,我国围绕数据安全、算法推荐、生成式服务等领域持续推出法规和政策文件,明确平台治理责任与合规边界,为依法治理提供依据。
随着相关法律法规进一步实施,围绕算法透明度、风险评估、合规审查、未成年人保护等要求有望更细化、更可执行。
二是压实平台主体责任,强化源头治理。
平台应健全内容审核与风险预警机制,对虚构摆拍、深度伪造、恶意拼接等行为形成有效识别和处置流程;对高风险领域和热点事件加强标注、溯源与辟谣联动,减少错误信息扩散空间。
三是优化算法目标与评价体系。
推动算法从单一“互动指标”导向,转向兼顾真实、权威、公共利益的综合评价,建立对低质内容的“降权—限流—处置”梯度机制,并提高推荐逻辑可解释性,让用户对“为何被推送”有更清晰的知情权。
四是加强跨部门、跨平台协同,形成治理闭环。
内容治理涉及技术、法律、伦理与教育多重维度,需要监管部门、平台企业、专业机构、媒体与社会组织协作,构建信息共享、快速处置与责任追溯机制,提升整体治理效率。
五是提升公众媒介素养,强化“用户端”防线。
通过学校教育、家庭引导与社会宣传,帮助用户尤其是未成年人掌握基本的事实核验方法与网络安全意识,减少被情绪操控与谣言诱导的风险。
前景判断上,随着法规体系不断健全、平台治理工具持续升级、社会共治理念深入人心,“数字泔水”的生存空间将被逐步压缩。
但也要看到,技术迭代与传播形态变化可能带来新的变种风险,治理不能止于一次性整治,而需建立常态化、可评估、可追责的机制。
未来应在“发展与规范并重”的框架下,既鼓励技术创新和内容繁荣,也以明确规则守住真实性与公共利益底线,让网络空间更可信、更有序、更具建设性。
当数字空间成为人类第二生存维度,"信息环境治理"已超越技术范畴,上升为文明存续质量的战略议题。
正如农耕时代治理水土流失、工业时代治理环境污染,今天我们对"数字泔水"的治理,本质上是对思维土壤的生态修复。
这场没有硝烟的认知保卫战,既考验社会治理智慧,更丈量着一个民族在数字文明时代的定力与远见。