ai 不用再困在手机屏幕里了,它变成了随时都在你眼前、耳边、手里的“第二大脑”

大家都知道,Siri 这个名字挺多年了,从十年前它是一个声音帮你处理日常任务的小助手。但后来呢,ChatGPT、Gemini 这些能“看”、能“听”的多模态 AI 出现,Siri 就有点跟不上趟儿了。毕竟嘛,让你在食堂门口拿出手机拍张菜单的照片给 Siri,再让它告诉你怎么点菜,这不就很麻烦嘛。所以,苹果这次把视觉感知模块给 Siri 补上去了,就让它成了那种你说话它也能看着你、帮你搞定事情的“第二大脑”。跟十年前的功能机不一样,智能机就是多了个屏幕嘛,现在的 Siri 也多了个视觉渠道。这一升级也挺有意思,用户的互动模式就变得更丰富了。 说回这个 AI 硬件路线,苹果这次走的是挺务实的路子。跟外面那些一天到晚吆喝“一步到位 AR 眼镜”的不一样,苹果喜欢慢慢来:先是搞个不带屏幕的眼镜、弄个摄像头挂在脖子上、再把 AirPods 里塞进摄像头传感器。这些新设备呢,都不直接显示东西,而是把看到的画面传回 iPhone,让 Siri 来分析场景。 比如那个无屏眼镜吧,预计 2027 年上市。它设计得很轻巧,主要靠眼睛前面的高分辨率摄像头和 AI 传感器干活。比如你想知道路边那栋楼有多高,或者这家快餐店的食物热量是多少,喊一声“嘿 Siri”,它马上就给你算出来。 还有那个挂脖子上的摄像头挂件,就跟 AirTag 差不多大小。今年你就能买到它了。它不用非得戴在头上,挂在项链上就行。不管你是在图书馆还是咖啡厅,只要带上它,“看见”东西就变得很方便。 最后是升级了低分辨率摄像头的 AirPods。它不是用来拍照的哦。比如你在吵杂的地方喝咖啡,它就能检测到环境声音变响了;你去图书馆安静看书的时候,它又会自动开启降噪模式。这些环境线索都能喂给 Siri,让语音助手更有现场感。 说到这里啊,Meta 的 Ray-Ban Stories 肯定是被拿来跟苹果的无屏眼镜比一比的。不过这两个东西用起来差别挺大的:Meta 的主打拍照录像发推特,是给年轻人玩社交的;苹果这个呢就是工具属性更强,专注于识别二维码、计算热量什么的。所以它们走的路子完全不一样。 Meta 要的是下一代社交入口嘛,苹果则是想让 iPhone 的地位更牢固一点。其实大家各玩各的挺好的,都在拓宽智能眼镜的应用边界嘛。 苹果这次搞这些穿戴设备可不是为了卖货赚钱哦。核心是要搭建以 iPhone 为中心的生态系统:所有新硬件都得跟 iPhone 连起来用,依赖它的算力和 AI 能力来干活。 大家现在都在抢入口呢:OpenAI 有 ChatGPT、谷歌有 Gemini、Meta 有 Quest。苹果不跟风搞那个大模型的事儿。它选择用 Siri 当大脑、用穿戴硬件来完成多模态交互的功能。说白了就是想在 AI 这股浪潮里守住自己的老地盘——iOS 生态系统。 等到以后带屏幕的 AR 眼镜真成熟了能整合显示和 AI 交互的时候再说呗。但现在看啊,苹果这种分层策略已经帮它在穿戴 AI 领域抢占先机了:AI 不用再困在手机屏幕里了。它变成了随时都在你眼前、耳边、手里的“第二大脑”,随时待命为你服务呢!