苹果在2026年制定了庞大的AI路线图,把10亿美元投入其中,给Gemini模型支付了授权费。他们给Siri取了Campo或Veritas的新代号,让它变得像ChatGPT一样可以聊天。为了实现这个目标,他们在芯片层面做了不少改动。M5 Pro/Max把神经加速器塞到了GPU核心里,数据就不用再远距离传输了。这样一来,图像生成的效率就暴涨了。在这其中,M5 Max凭借着128GB的统一内存,能把125B参数的模型搬到MacBook上跑。ChatGPT、CoreAI、CoreML这些框架在未来可能会被新的CoreAI框架取代。这个框架会给开发者提供更底层的系统级AI接口。iOS 27系统也会因为这次更新而改变架构。 苹果在这次升级中特别强调端侧优先。他们在MacBook上的本地大脑能让文档校对、图像生成和语音转写这些任务都在本地完成。这意味着你的邮件、照片和聊天记录都不会上传到云端去。竞争对手还在讨论云端大模型的时候,苹果已经用本地大脑把隐私保护好了。Siri现在能看懂屏幕上的内容了,比如地址或二维码,并且能根据上下文来理解指令。通过这种方式,AI助手就能整理文件或者分享信息了。 苹果还通过氛围编码类工具来限制第三方插件的使用,引导创新留在自己的生态圈内。这样做是为了确保智能体验的一致性和封闭性。系统级重构给用户带来了很多好处。Siri现在能追踪邮件、照片和备忘录了,它可以听懂像“上周那份会议文件”这样的指令。它还可以在Pages、Notes和Mail之间搬运文件或者整理附件。 硬件、系统和生态这三者闭环配合得非常紧密。芯片提供算力,端侧保证隐私,系统级入口让AI变得像空气一样无处不在。这一系列措施让智能体验变得更自然、更私密,也把竞争对手挡在了生态之外。