聊聊 CES 爆火的 AI 眼镜

信息平权

20小时前

AI眼镜的最终价值是什么?agent的载体,行走的MCP client
(本文来自星球内产业老师左右横眺的分享,非常深刻)

潜水有段时间了,Jason兄和我说偶尔也来发发帖,遂冒泡写一写AI眼镜。一年前曾顶着苹果vision pro发售的压力,在内部坚持对vp产品理念的看空和对眼镜的看好。而后vp的退潮和AI眼镜的大热也印证了当初的预判。24年末已是发布会云集,小度、looktech、闪极、rokid…,伴随着CES开幕,25年AI眼镜将会是一项主旋律。
讨论AI眼镜时,要先和XR的惯性解耦。补充一点关于品类的background。国内厂商的XR概念出于营销考虑有显著滥用,比如把观看流媒体和投屏的眼镜称为AR眼镜(其实是弱VR,可以视作青春版头显),把标准的AR眼镜不得不改叫真AR(比如雷鸟X系列)。 
之所以要强调解耦,因为AI和XR在用户侧属于不同的需求。XR可以解构为“显示器”,用途是“观看和体验”,VR是沉浸式显示器,AR适用于透视场景下的虚实叠加。而AI设备在根本上是“传感器”,用途是“交互助手”,设备采集用户和环境context,并双向传递指令和结果。目前AI眼镜的火热,就基于眼镜形态对传感器和交互界面的契合。 
Rayban meta是第一个成功案例,虽然它其实并不那么AI。大部分用户的购买动机在于rayban品牌渠道和影音体验,Meta AI是那个充话费送的。而国内对rayban的跟风,主要还是模仿者心态。另外,从实务上,无显示的方案确实是相对成熟好复刻。以国内的供应链能力,已可以做到在重量不变、配置对标的情况下,数倍于rayban的续航,这也是第一批发布的眼镜的普遍特点。 
但只做rayban复刻,并不能支撑AI眼镜的叙事。rayban的意义还是在于让人看到了希望,而非给出了答案,几百万副的成果是纵向比较,横向放大赛道里并没有水花。很容易推演,AI眼镜要走向成熟,一是提高交互的带宽,显示的存在还是有必要的,引出了AI+AR。二是让AI提供更多价值,引出了agent生态。 
但眼镜不是头显(二者在长期会保持不同的产品定位),外形、重量、电池的限制太多,不能一味地上配置。在纯AR都勉强的当下,要实现上述两点,更好的解法是减配,既减AR的配,也减AI的配。 
AR眼镜商有自己的包袱,他们必须维护虚实融合、空间计算的图景,奈何全功能的AR在当下仍处于需求和技术都在画饼的两难。所谓的AI+AR,其实核心只在光波导,没必要强上SLAM、3/6dof或者装安卓应用和看流媒体,这些都与AI眼镜无瓜。FOV、分辨率、全彩,也属于次优先的雕花。重点在于平衡显示效果和全天候佩戴体验。 
当然也有公司琢磨怎么绕过光波导,但效果都不佳。比如brilliant labs用了在镜片中加入棱镜的方案,但非常影响日常视物。本次CES参展的Halliday,把显示搬到了镜框上,类似一个潜望镜,也是个略微妙的方案,预计实测会比较累眼睛。 
而对于AI的减配更加直接,眼镜的端侧不要去指望,想太多,调api就好,模型能力是第一位的。眼镜要优化的不是算力,而是延迟。很多产品的延迟脱离了实用范畴。 
目前看到在产品定义上相对下了功夫的,一个是rokid glasses,新的光波导方案漏光大大改善,联合通义集成AI应用,但体积/重量还是下不来。另一个是已在售的even realities g1,抬头扩展idea很好,砍掉了喇叭和摄像头单元做到了足够轻便,但也因此妥协太多。今年,仍然是加减法的比拼,看哪家公司能先拔得头筹,定义出AI眼镜的iPhone。 
最后,用一个简单问题收尾,AI眼镜的最终价值是什么?
agent的载体,行走的MCP client

AI眼镜的最终价值是什么?agent的载体,行走的MCP client
(本文来自星球内产业老师左右横眺的分享,非常深刻)

潜水有段时间了,Jason兄和我说偶尔也来发发帖,遂冒泡写一写AI眼镜。一年前曾顶着苹果vision pro发售的压力,在内部坚持对vp产品理念的看空和对眼镜的看好。而后vp的退潮和AI眼镜的大热也印证了当初的预判。24年末已是发布会云集,小度、looktech、闪极、rokid…,伴随着CES开幕,25年AI眼镜将会是一项主旋律。
讨论AI眼镜时,要先和XR的惯性解耦。补充一点关于品类的background。国内厂商的XR概念出于营销考虑有显著滥用,比如把观看流媒体和投屏的眼镜称为AR眼镜(其实是弱VR,可以视作青春版头显),把标准的AR眼镜不得不改叫真AR(比如雷鸟X系列)。 
之所以要强调解耦,因为AI和XR在用户侧属于不同的需求。XR可以解构为“显示器”,用途是“观看和体验”,VR是沉浸式显示器,AR适用于透视场景下的虚实叠加。而AI设备在根本上是“传感器”,用途是“交互助手”,设备采集用户和环境context,并双向传递指令和结果。目前AI眼镜的火热,就基于眼镜形态对传感器和交互界面的契合。 
Rayban meta是第一个成功案例,虽然它其实并不那么AI。大部分用户的购买动机在于rayban品牌渠道和影音体验,Meta AI是那个充话费送的。而国内对rayban的跟风,主要还是模仿者心态。另外,从实务上,无显示的方案确实是相对成熟好复刻。以国内的供应链能力,已可以做到在重量不变、配置对标的情况下,数倍于rayban的续航,这也是第一批发布的眼镜的普遍特点。 
但只做rayban复刻,并不能支撑AI眼镜的叙事。rayban的意义还是在于让人看到了希望,而非给出了答案,几百万副的成果是纵向比较,横向放大赛道里并没有水花。很容易推演,AI眼镜要走向成熟,一是提高交互的带宽,显示的存在还是有必要的,引出了AI+AR。二是让AI提供更多价值,引出了agent生态。 
但眼镜不是头显(二者在长期会保持不同的产品定位),外形、重量、电池的限制太多,不能一味地上配置。在纯AR都勉强的当下,要实现上述两点,更好的解法是减配,既减AR的配,也减AI的配。 
AR眼镜商有自己的包袱,他们必须维护虚实融合、空间计算的图景,奈何全功能的AR在当下仍处于需求和技术都在画饼的两难。所谓的AI+AR,其实核心只在光波导,没必要强上SLAM、3/6dof或者装安卓应用和看流媒体,这些都与AI眼镜无瓜。FOV、分辨率、全彩,也属于次优先的雕花。重点在于平衡显示效果和全天候佩戴体验。 
当然也有公司琢磨怎么绕过光波导,但效果都不佳。比如brilliant labs用了在镜片中加入棱镜的方案,但非常影响日常视物。本次CES参展的Halliday,把显示搬到了镜框上,类似一个潜望镜,也是个略微妙的方案,预计实测会比较累眼睛。 
而对于AI的减配更加直接,眼镜的端侧不要去指望,想太多,调api就好,模型能力是第一位的。眼镜要优化的不是算力,而是延迟。很多产品的延迟脱离了实用范畴。 
目前看到在产品定义上相对下了功夫的,一个是rokid glasses,新的光波导方案漏光大大改善,联合通义集成AI应用,但体积/重量还是下不来。另一个是已在售的even realities g1,抬头扩展idea很好,砍掉了喇叭和摄像头单元做到了足够轻便,但也因此妥协太多。今年,仍然是加减法的比拼,看哪家公司能先拔得头筹,定义出AI眼镜的iPhone。 
最后,用一个简单问题收尾,AI眼镜的最终价值是什么?
agent的载体,行走的MCP client

展开
打开“财经头条”阅读更多精彩资讯
最新评论

参与讨论

深深朵儿 20小时前 AR供应链上光电器件的从业者。AI终究还是种过渡产品,是在大厂们都认定是下一代计算平台的AR眼镜还没有成熟之前“妥协”出来的产品。 这里的AI准确地说是多模态AI,其终极应用是自动驾驶与机器人,用在眼镜上而爆火,算是Meta无心插柳柳成荫,现在供不应求的情况也是出乎小扎的意料之外的。 作为利益相关者,还是坚信AR眼镜终有一天会成为大家都用得上的消费电子产品。但目前待解决的问题实在是太多,其中最突出的就是各种波导技术路线的演进,三种主要微投影光机路线的进化(业界看好microLED),eyetracking模组小型化、低功耗化,深度感知方案,还有作者文中提到的6DoF,SLAM等等。终极的AR眼镜要做到50克及以下重量,目前困难重重。 AR和AI,Meta目前是标兵,苹果都要比他慢不止一个身位。
APP内打开