端侧ai的入口给重塑了,连硬件的样子都变了

陈海进老师给电子行业做了个深度分析,咱们聊聊他关于端云协同的看法。这种模式主要把AI的入口给重塑了,连硬件的样子都变了。 先看云端模型,2026年以来,国外的大厂正忙着在代码能力和多智能体体系上下功夫。代码方面,推理需求往两个方向走:长链复杂推理和实时交互。像OpenAI的Codex-Spark这种低延迟优先型智能体,能让开发者在代码生成时随时打断修正。而Claude 4.6这种长链型的,通过提高上下文长度,来提升高价值任务的成功率。我们觉得,“快交互+长推理”这种双能力栈以后会成为通用智能体的重要发展方向。 多智能体框架也变得越来越主流,很可能成为下一个落地的趋势。春节的时候,国内的模型厂商也在密集更新,性能赶上了国外,价格还便宜了不少。应用侧的需求也开始释放了,云端模型的能力验证给了端侧一个好的参考。 再说说端侧模型,它跟云端是分工合作的关系。高频、轻量、隐私强的任务就在本地完成,重推理、长生成的任务就打包上云。端侧模型有两个关键点:多模态能力和算法侧压缩。多模态现在能实现零延迟交互,流式架构成了主流。 为了对抗功耗和内存的限制,算法压缩主要通过模型架构优化、低比特量化还有Attention效率优化、KV Cache优化这些手段来把计算和存储开销压到最低。 整机AI的功能也在变。2024年大家都在搞图像消除、文本摘要这些低门槛的事;到了2025年,厂商开始往多模态创作上发力了。整机竞争从数量比拼变成了体验比拼。 为了支持多模态功能升级,核心部件也在升级。三星的LPDDR6产品在传输速度更快的情况下,还把电路架构和电源管理都改了一遍,让能效提升了21%。 散热方面三星在2025年12月19日发布了Exynos 2600芯片。这块芯片用了High-k EMC材料优化了热传输路径,热阻比Exynos 2500低了16%。这样一来游戏和端侧AI推理的持续表现就好了很多。 未来像高通的Snapdragon 8 Elite Gen 6这种下一代旗舰平台可能会把算力、存储和散热都给提升起来,给端侧AI功能的复杂化和持续运行提供更多硬件支持。 不过还是得小心几个风险点:模型能力提升慢了;端侧AI商业化没那么快;终端硬件升级跟不上需求。