问题:热潮之下的“无趣感”与沟通落差 近来,生成式应用加速进入办公、教育、内容生产等场景。另外,围绕其表达方式、可靠性与人文属性的讨论也在升温。沃兹尼亚克在与《财富》杂志的对话中提到,自己偶尔会向人工智能提问以测试能力,但常得到篇幅冗长、看似周全却偏离重点的回答。他形容部分内容“太完美、太无趣”,也更愿意听到来自真实个体的声音与观点。这种感受折射出当下人机沟通的现实矛盾:工具能力快速增强,但离“像人一样交流”仍有距离。 原因:算法式表达与现实体验缺位并存 业内人士指出,目前大模型产品多以概率生成方式组织语言,往往倾向给出稳妥、覆盖面广的“标准答案”以降低出错风险,但也更容易带来同质化、缺少个性与情境张力的表达。沃兹尼亚克强调的“生活经历”,指向人工智能在情感理解与价值判断上的结构性局限——它可以学习文本中的情绪线索,却并未经历人类的成长、挫折与复杂处境,因此对讽刺、隐喻、语境转换等细微表达的把握,常停留在模式匹配层面。此外,一些产品为了追求可读性与完整性,默认补充解释、扩展背景,导致用户提出的“关键字式问题”被过度展开,形成“看似说了很多、但不够贴近”的落差。 影响:从个人体验延伸至产业取向与社会心理 沃兹尼亚克的表态不只是个人偏好。对消费者而言,若工具输出过于模板化,可能降低使用黏性,进而影响口碑与商业化转化。对内容生态而言,当平台大量采用统一风格的自动生成文本,信息供给或许更充裕,却更趋雷同,压缩原创表达与多元观点的可见度。对公共治理而言,围绕虚假信息、责任归属、隐私保护等议题的压力仍在上升:当输出内容更“像样”、更“完整”时,用户更容易放松核验,从而放大错误传播风险。更重要的是,社会对技术的期待不应只停留在“更快更省”,也包括“更可信、更可控、更符合人的需求”。 对策:以人为本提升可用性、可信度与人文关怀 受访专家认为,改进路径需要从产品设计、行业规范与用户素养多端发力。 一是优化交互机制,减少“默认长篇”。通过更明确的指令引导、可选的回答长度与结构模板,让工具优先对齐用户意图,避免用泛化解释替代精准回应。 二是强化事实依据与来源透明。对可核验信息提供引用线索、时间标注与不确定性提示,推动从“能说”向“说得对、说得清楚”转变。 三是坚持“人在回路”原则。在新闻、医疗、法律、教育等高风险场景,明确人工复核、责任主体与审计机制,避免工具输出被直接当作结论使用。 四是把人文体验纳入评价体系。除了速度、准确率等指标,也应衡量表达适配度、情境理解能力与用户信任,鼓励差异化、个性化而非同质化的产品路线。 五是提升公众媒介素养。引导用户将人工智能定位为助手而非权威,养成交叉验证、追问证据与保留判断的习惯。 前景:技术进步与人类表达将长期共生 从产业趋势看,人工智能在数据处理、辅助写作、知识检索、软件开发等领域仍将持续扩展,成为提升效率的重要基础设施。但多位业界人士也指出,“更聪明”不等于“更懂人”。未来的关键不在于是否替代人类交流,而在于如何让技术更贴近真实需求:在提高效率的同时,尊重人的差异、情感与创造力;在扩大信息供给的同时,维护内容多样性与社会信任。
在算力竞赛日益激烈的今天,沃兹尼亚克的反思更像一次提醒:技术的意义不在于制造看似完美的工具,而在于更好地服务人、理解人,并为人的表达留出空间。未来回望这个时代,人们未必会记住哪家公司的芯片跑得最快,但会记住那些坚持让科技保有温度的思考者。这既是创新者的责任,也是社会信任与文明延续的重要基础。