学界业界共议算法治理新路径 平台社会责任建设亟待破局

(问题) 移动互联网进入深度推荐时代,平台算法既提升了信息分发效率,也带来“被动接收”“同质化加剧”等新争议。

公众讨论集中在几个关键点:推荐为何发生、规则如何调整、用户能否有效控制、平台如何在商业效率与公共利益之间取舍。

与会学者指出,算法争议往往表现为体验层面的不适与信任层面的疑虑:一方面,用户在不理解推荐逻辑时,容易产生“被系统替我做选择”的感受;另一方面,围绕“信息茧房”“谣言扩散”“价值导向”等问题的争论,也在考验平台治理能力与社会共识基础。

(原因) 多位专家认为,当前算法治理的难点不只是“是否公开参数”,更在于“公众是否看得懂、用得上”。

上海社会科学院相关研究者提出,现阶段行业实践多集中于技术可解释性,但对普通用户而言仍存在理解门槛,信息披露如果停留在概念层、原则层,难以转化为可验证、可感知的治理成效。

复旦大学新闻学院学者指出,短视频用户存在明显分层与圈层差异,去中心化环境下既不存在完全一致的用户,也很难有统一的推荐模板,平台若以单一指标衡量“优质”,容易造成供给侧标准与受众侧感受之间的落差。

华东师范大学学者则强调,用户对推荐的抵触常源于“主观感受被忽视”:当“不感兴趣”无法准确表达原因、管理工具缺乏细分选项,负面体验更易被归因于“算法自作主张”。

此外,复旦大学社会发展与公共政策领域学者分析,“茧房”之所以被频繁提及,核心在于可控性不足;当用户对信息来源与流向缺乏掌控感,同质化就会被放大为结构性焦虑。

还有学者提醒,所谓“公序良俗”“内容边界”等议题本身具有情境性与动态性,单靠一次性规则设定难以一劳永逸,需要平台在机制上持续迭代。

(影响) 算法治理水平直接关联内容生态质量与公共讨论秩序。

与会专家认为,推荐机制已不仅是商业分发工具,也在一定程度上塑造议题可见度与社会情绪流向:在公共事务讨论中,算法对信息扩散速度、讨论强度与立场分化具有放大效应;在日常内容消费中,过度迎合单一偏好可能压缩多样性,使优质供给与大众趣味之间出现错位;在未成年人场景中,沉浸式体验若缺乏有效引导,可能引发心理健康与时间管理等风险。

更重要的是,若平台难以将治理措施转化为可感知的解释与可操作的工具,信任成本将上升,进而影响行业的长期发展与社会协同治理的基础。

(对策) 围绕“如何让治理看得见、用得上”,与会学者提出多项路径建议。

其一,提升用户可控性,增强“我能选择”的体验。

学者建议在内容偏好管理、观看时长管理等工具上持续优化,将“不感兴趣”等反馈做精细化表达,允许用户对推荐原因进行更清晰的选择与修正,以减少误判带来的“被冒犯感”。

其二,推动从“技术透明”走向“治理透明”。

专家认为,除了公开原则与机制框架,更需要用通俗语言解释治理目标、执行路径与评估结果,让公众理解平台在谣言治理、低质内容治理、青少年保护等方面“做了什么、为何这样做、效果如何”。

其三,坚持问题导向,建立多方协同的治理格局。

有学者提出,对平台而言应聚焦主要矛盾,积极与监管、学界、公众沟通,在更高社会站位上凝聚共识,同时通过社会教育提升公众信息与数字素养,让用户具备基本的识别能力与自我管理能力。

其四,将社会目标纳入推荐体系,形成责任与效率的动态平衡。

学者建议平台在内容分发中兼顾公共利益指标,与创作者联动传播治理理念与规则边界,增强社会对“以人为本”的直观感受。

其五,在边界议题上采取渐进式改良。

对于“公序良俗”界定等复杂问题,专家认为需要依托持续的算法优化与生态治理机制,兼顾规则确定性与情境弹性,以长期、迭代的方式稳步提升治理质量。

(前景) 与会信息显示,平台方面正尝试以公开化与工具化回应社会关切:抖音安全与信任中心官网上线,集中呈现算法原理与治理政策,并升级“使用管理助手”,提供观看时长分析与内容偏好管理等功能。

专家普遍认为,未来算法治理的关键趋势在于“可理解、可验证、可参与”:一方面要让公众获得更清晰的知情权与选择权,另一方面也要在社会层面形成对算法作用边界的理性认知。

随着监管体系完善、行业自律推进与学界研究深化,平台算法治理有望从单点改良走向体系化建设,但前提是将透明转化为治理能力,将披露转化为信任增量。

算法治理是一个长期的系统工程,需要平台、用户、监管部门、学术机构等多方主体的协同参与。

从技术透明走向治理透明,体现了数字时代社会治理认识的深化。

平台应认识到,算法本身是中立的工具,其社会影响取决于使用方式和治理水平。

唯有通过不断优化算法设计、完善透明机制、增强用户权能、推进全民数字素养教育,才能让算法真正成为造福社会、促进信息民主流通的力量。

这既是平台的社会责任所在,也是数字生态健康发展的必然要求。