行业里面有一个观点,认为“AI眼镜是AI的最佳载体”。这是因为眼镜的形态距离人类的五官最近,另外,AI眼镜搭载摄像头可以“看你所看”,相比于耳机等产品形态,AI眼镜更方便捕捉到现实世界的视觉信息,而人类获取信息80%来自视觉。
这一套逻辑看起来没啥问题,然而,我们发现,OpenAI作为全球用户体量第一的AI公司,却首先把目光放到了耳机上面而不是眼镜。
根据“智慧皮卡丘”爆料,OpenAI目前在研发一款代号为 “Sweetpea”的产品(OPENAI 智能硬件曝光,是一款音频产品,目标出货至少4000万副),用来替代 AirPods,产品形态为两颗胶囊状耳塞(pills),可以挂在耳后。同时OpenAI还在开发一款定制芯片,使该设备能够 “通过语音指令Siri来替代iPhone的操作”。说实话,一开始笔者是看不懂这个产品的,直到外媒爆料了Apple收购Q.ai这一公司(别YY了,Airpods要加的摄像头只是颗红外摄像头),笔者才恍然大悟,原来Apple和OpenAI这些动作都指向了一场智能硬件的革命——“无声交互”。
▲ 智慧皮卡丘爆料的OpenAI耳机图片
作为核心业务是AI的厂商,OpenAI做硬件的出发点很简单,肯定不是为了多元化赚几个硬件的钱,就是为了给OpenAI的AI找到最佳载体和入口。从这一产品计划来看,当下OpenAI认为现阶段最佳的AI载体是耳机而不是眼镜。显然,相比于智能眼镜,耳机的市场已经被充分教育和验证了,但这个市场竞争激烈,已经是一片红海。作为一个新品牌要想脱颖而出,就必须有足够强的差异化和破局的利器才能达到4000-5000万的销售量级,显然这个利器就是——无声交互的颠覆性体验以及和AI的结合。
我们再来看看Apple的动作,此前行业内一直在传“Apple正在研发一款带摄像头的AirPods”,受此影响,很多公司都被带偏了,笔者猜测字节在研发带摄像头的耳机就是收此信息的影响。而我们认为,Apple要给AirPods装上的摄像头应该是红外摄像头,是用于“无声交互”的。无声交互的体验到底有多炸裂,在AI Vision文章(OpenAI的AI硬件和Airpods将开启“无声默念”交互革命,肯定卖爆!)中我们有介绍过,可以实现默念语音指令,让“拾音”的准确度大大提升,从而提高语音指令的准确性,这将大幅提升Siri的用户体验,拓展AI的使用场景,甚至还衍生出很多有意思的体验。
而就在前不久Google也达成了和Google Gemini的合作(Google 拿下苹果AI大单!),今年将会重点升级Siri,这一系列动作都指向了Apple的AI动作,让AirPods成为最大的AI载体。
AirPods 自 2016 年底发布至今,累计出货量已超9亿副,年度出货量峰值出现在 2021 年(约1.0–1.2 亿副),近年稳定在5800–6200 万副/年。

AirPods每一代都是有个核心点来拉动用户升级的,生态协同(iPhone/Mac/Watch 联动)、音频体验(空间音频)、健康监测(心率 / 听力健康)来持续拉动换机与新增需求。
毫无疑问,下一代AirPods的升级动力就来自于——无声交互,和AI的整合。而这一下子就可以让Apple拥有几千万乃至亿级的AI用户,一跃成为最大的AI可穿戴入口公司,这是一年几百万AI眼镜销量没办法比的。
最后,我们再来看一下AI眼镜和AI耳机的差别,AI眼镜优于AI耳机之处在于AI眼镜可以获取到视觉信息,也就是实现——视觉AI,这个是目前AI耳机所不具备的。但是在现阶段实际体验中,我们会发现,目前视觉AI大部分都还是停留在扫个码,识个花,看个字,也就是说现阶段的视觉AI应用场景还有限且低频,人类获取信息80%依靠的视觉信息还真正被AI用起来——那就代表现阶段AI眼镜并没有比AI耳机在AI载体上更有优势。因此Apple选择从AirPods去发力,而不是很着急推出AI眼镜也很符合Apple的一贯风格。

当然,也有外媒爆料称Apple正在加速AI眼镜的研发,这个我们目前就不得而知了,但从技术上来讲,AI眼镜和AI耳机有很多相通之处,很多技术也能在AI眼镜复用,对于Apple来说使用AirPods的很多技术就足够碾压市面上很多产品了。
基于以上分析,我们认为,AI眼镜是未来AI的最佳载体和入口,但前提是视觉AI发展得足够好,应用场景更为成熟。而现阶段,AI做的最佳载体可能还是AI耳机。以上为个人看法,欢迎大家评论区发表自己的观点。
原文标题 : 评论 | 现阶段,AI的最佳载体是耳机而不是眼镜
行业里面有一个观点,认为“AI眼镜是AI的最佳载体”。这是因为眼镜的形态距离人类的五官最近,另外,AI眼镜搭载摄像头可以“看你所看”,相比于耳机等产品形态,AI眼镜更方便捕捉到现实世界的视觉信息,而人类获取信息80%来自视觉。
这一套逻辑看起来没啥问题,然而,我们发现,OpenAI作为全球用户体量第一的AI公司,却首先把目光放到了耳机上面而不是眼镜。
根据“智慧皮卡丘”爆料,OpenAI目前在研发一款代号为 “Sweetpea”的产品(OPENAI 智能硬件曝光,是一款音频产品,目标出货至少4000万副),用来替代 AirPods,产品形态为两颗胶囊状耳塞(pills),可以挂在耳后。同时OpenAI还在开发一款定制芯片,使该设备能够 “通过语音指令Siri来替代iPhone的操作”。说实话,一开始笔者是看不懂这个产品的,直到外媒爆料了Apple收购Q.ai这一公司(别YY了,Airpods要加的摄像头只是颗红外摄像头),笔者才恍然大悟,原来Apple和OpenAI这些动作都指向了一场智能硬件的革命——“无声交互”。
▲ 智慧皮卡丘爆料的OpenAI耳机图片
作为核心业务是AI的厂商,OpenAI做硬件的出发点很简单,肯定不是为了多元化赚几个硬件的钱,就是为了给OpenAI的AI找到最佳载体和入口。从这一产品计划来看,当下OpenAI认为现阶段最佳的AI载体是耳机而不是眼镜。显然,相比于智能眼镜,耳机的市场已经被充分教育和验证了,但这个市场竞争激烈,已经是一片红海。作为一个新品牌要想脱颖而出,就必须有足够强的差异化和破局的利器才能达到4000-5000万的销售量级,显然这个利器就是——无声交互的颠覆性体验以及和AI的结合。
我们再来看看Apple的动作,此前行业内一直在传“Apple正在研发一款带摄像头的AirPods”,受此影响,很多公司都被带偏了,笔者猜测字节在研发带摄像头的耳机就是收此信息的影响。而我们认为,Apple要给AirPods装上的摄像头应该是红外摄像头,是用于“无声交互”的。无声交互的体验到底有多炸裂,在AI Vision文章(OpenAI的AI硬件和Airpods将开启“无声默念”交互革命,肯定卖爆!)中我们有介绍过,可以实现默念语音指令,让“拾音”的准确度大大提升,从而提高语音指令的准确性,这将大幅提升Siri的用户体验,拓展AI的使用场景,甚至还衍生出很多有意思的体验。
而就在前不久Google也达成了和Google Gemini的合作(Google 拿下苹果AI大单!),今年将会重点升级Siri,这一系列动作都指向了Apple的AI动作,让AirPods成为最大的AI载体。
AirPods 自 2016 年底发布至今,累计出货量已超9亿副,年度出货量峰值出现在 2021 年(约1.0–1.2 亿副),近年稳定在5800–6200 万副/年。

AirPods每一代都是有个核心点来拉动用户升级的,生态协同(iPhone/Mac/Watch 联动)、音频体验(空间音频)、健康监测(心率 / 听力健康)来持续拉动换机与新增需求。
毫无疑问,下一代AirPods的升级动力就来自于——无声交互,和AI的整合。而这一下子就可以让Apple拥有几千万乃至亿级的AI用户,一跃成为最大的AI可穿戴入口公司,这是一年几百万AI眼镜销量没办法比的。
最后,我们再来看一下AI眼镜和AI耳机的差别,AI眼镜优于AI耳机之处在于AI眼镜可以获取到视觉信息,也就是实现——视觉AI,这个是目前AI耳机所不具备的。但是在现阶段实际体验中,我们会发现,目前视觉AI大部分都还是停留在扫个码,识个花,看个字,也就是说现阶段的视觉AI应用场景还有限且低频,人类获取信息80%依靠的视觉信息还真正被AI用起来——那就代表现阶段AI眼镜并没有比AI耳机在AI载体上更有优势。因此Apple选择从AirPods去发力,而不是很着急推出AI眼镜也很符合Apple的一贯风格。

当然,也有外媒爆料称Apple正在加速AI眼镜的研发,这个我们目前就不得而知了,但从技术上来讲,AI眼镜和AI耳机有很多相通之处,很多技术也能在AI眼镜复用,对于Apple来说使用AirPods的很多技术就足够碾压市面上很多产品了。
基于以上分析,我们认为,AI眼镜是未来AI的最佳载体和入口,但前提是视觉AI发展得足够好,应用场景更为成熟。而现阶段,AI做的最佳载体可能还是AI耳机。以上为个人看法,欢迎大家评论区发表自己的观点。
原文标题 : 评论 | 现阶段,AI的最佳载体是耳机而不是眼镜