最近,国内厂商仿佛开启了AI眼镜大战。作为智能穿戴市场的新蓝海,AI眼镜市场竞争格局还尚未形成稳定的头部效应,因此多家企业都在积极研发和推广AI眼镜产品。除了传统眼镜厂商外,无论是科技大厂,还是初创企业,都纷纷下场,加剧了市场竞争:
今年8月,雷鸟创新官宣与博士眼镜合作,将共同开展新一代 AI 眼镜的研发设计、销售、营销与服务等工作;11月,影目科技联合紫光展锐共同发布了影目X系列AI眼镜开放平台;前不久,Rokid刚刚发布了集光波导+AI于一身的AR眼镜——Rokid Glasses;此外,国内引擎巨头百度推出的小度AI眼镜也将于2025年上半年与大家见面……
细数这些发布新品的企业,我们会发现,一些原本聚焦AR眼镜的厂商,也开始做AI眼镜了,还有一些宣传中常常会提到“AR+AI”眼镜。
要知道,虽然AR眼镜和AI眼镜都属于智能眼镜的范畴,但在技术原理、功能侧重点、硬件需求和应用场景等方面都存在显著的差异。在AI眼镜市场盛况空前的当下,也引发了些许疑问:AR眼镜和AI眼镜的区别到底是什么?本篇文章,我们就来详细梳理一下。
技术原理存在差异
AR眼镜的核心技术在于增强现实技术,即将虚拟信息叠加到用户的现实视野中,从而丰富用户的感知。
AR眼镜需要通过先进的显示技术来呈现虚拟图像。这些图像可以是静态的(如文字、图像),也可以是动态的(如视频、动画)。为了实现虚拟信息与现实世界的无缝融合。此外,AR眼镜还需要借助传感器和摄像头等设备,跟踪用户的头部和眼睛动作,实现更加自然和流畅的交互体验。
作为消费者,我们肯定希望一款AR眼镜能提供全息显示、清晰广阔的视野和轻量化外形等特质,这就使得显示技术成为了AR眼镜一个极其重要的技术支撑。对于当前的技术水平而言,具备轻薄和外界光线的高穿透特性的光波导显示技术被认为是消费级AR眼镜的必选光学方案——但同时也因为价格高和技术门槛高让人望而却步。
此外,传感器技术也尤为重要。这些传感器包括陀螺仪、加速度计、磁力计等,它们能够感知用户的头部姿态、眼睛位置、手势动作等信息,从而实现对用户的实时跟踪和交互。通过这些传感器,AR智能眼镜可以实现更准确、更自然的用户体验,用户可以通过头部姿态和手势来与虚拟信息进行交互,从而更加方便地操作设备和获取所需信息。
Meta在今年Connect 2024大会所展示的Orion AR眼镜,可以说是目前业内技术上最好的一款产品了(但也只是展示的)。它配备Micro LED 微显示投影和七个摄像头,可提供70度的视野,这比其它的AR眼镜更宽。
Orion可以实现不受智能手机屏幕限制的数字体验,借助大型全息显示屏,将物理世界用作画布,并通过手势交互设置2D和3D内容;它运用的显示技术也是当前产品中的佼佼者——据Meta称,Orion 拥有迄今为止最小 AR 眼镜中最大的视野,数字内容可以与物理世界的视野无缝融合。
而AI眼镜的技术原理则不同。AI眼镜主要依托内置的人工智能技术,包括机器学习、深度学习等。这些眼镜通过摄像头、麦克风等传感器收集环境信息,并利用智能算法进行处理和分析。但在显示技术方面,却没有太大的瓶颈。
以Meta的另一款产品,同时也是目前AI眼镜领域的大热产品Ray-Ban Meta 智能眼镜为例,Ray-Ban Meta配备内置扬声器、麦克风和摄像头,搭载生成式AI,但它不支持 AR 叠加。
Ray-Ban Meta并不追求显示器的像素密度,无全彩显示的需求,因为它的显示屏也只用作摄像系统,而不是增强现实内容的显示系统,因此也不具备沉浸式的视觉效果。
在这样的技术支持下,AI眼镜会更加专注于多媒体捕捉,而不具备 AR 功能。这种根本目的上的差异导致两类产品的显示质量和用户体验存在巨大差异。
功能上的侧重不同
AR眼镜的功能更侧重于提供沉浸式的增强现实体验。通过虚拟信息的叠加,AR眼镜可以让用户看到现实世界中不存在的虚拟物体,或者在现实环境中预览和修改设计作品。这种技术被广泛应用于教育、游戏、工业设计、军事训练等专业领域。
可以说,AR眼镜是对物理世界的虚拟重塑,是为了满足沉浸式应用的需求。
目前,AR眼镜在工业和医疗上的应用比较广泛,比如Vuzix,就是比较有代表性的产品之一。
其实,苹果Vision Pro的AR功能,也可以算是AR眼镜的理想功能了。我们曾看到过很多Vision Pro在医疗和企业领域的用例,尤其是医疗方面(可参考VRAR星球文章《被质疑的苹果Vision Pro,已经悄然改变了整个医疗领域》),Vision Pro的沉浸式辅助功能使它成为了医疗届的“新宠”——如果苹果的AR眼镜能照着这个路径发展,那也可以期待一下了。
的确,AR眼镜目前在B端的应用相对更广泛些。除此之外,Meta还曾在对Orion AR眼镜的愿景中提及了一些更生活化的AR眼镜功能。比如“可以打开冰箱,根据里面的东西询问食谱;或者一边洗碗一边调整数字家庭日历,一边给朋友打视频电话;甚至无需拿出手机,就能告诉朋友你快吃晚饭了”,Meta希望未来的AR眼镜可以与物理世界无缝地交互,仅通过眼镜完成所有的操作。
但遗憾的是,目前的消费级AR眼镜还远远没有这样的功能。以国内来说,目前市场上大部分的AR眼镜强调的都是它的观影功能,即使技术能达到Meta所描述的那种效果,消费级AR眼镜还缺乏所谓的“杀手级应用”,因此在功能上也颇受限制。
AI眼镜则恰恰相反。AI眼镜在功能上更注重智能化处理和人机交互。它们通过人工智能技术,实现了语音识别、图像识别、手势控制等高级功能。AI眼镜可以识别用户的语音指令,执行各种任务,如发送消息、查询天气、播放音乐等。此外,AI眼镜还可以利用图像识别技术,识别物体、人脸和场景,为用户提供更加智能化的服务。
AI眼镜更多的是对生活上的辅助。
例如实时翻译,实时导航语音播报,就是AI眼镜主推的功能。也正因为如此,一些AI眼镜在对聋哑人的需求支持上有十分显著的作用。
在接入AI语音交互后,AI眼镜的辅助作用就更加明显。想象一下,当你在日常的骑行过程中,一句话即可唤醒AI进行导航,耳边实时播报路况和指引——不用随时掏手机看导航,不仅节省时间,在行进过程中也更加安全。
目前在市场上已经取得较大成功的Ray-Ban Meta眼镜,主要功能也是集中在翻译、导航、AI生活提醒方面。据称Meta还计划为其添加视频拍摄分享、二维码和电话扫描功能,无疑将为日常生活提供更多便利。
从功能上来讲,AI眼镜的市场化更好实现,这也是除技术方面以外,AI眼镜在当下更受追捧的另一个原因。
对硬件的需求导致
成本不同,价格相差巨大
AR眼镜的硬件需求相对较高。除了需要强大的处理器和传感器来支持复杂的图像处理和虚拟信息叠加功能外,AR眼镜还需要额外的显示技术和相应的光学组件来创建虚拟图像。
前文我们提到,目前光波导显示技术被认为是消费级AR眼镜的必选光学方案,它能够适配近视眼镜,低功耗,长续航,且透光率高,是高端AR眼镜常用的显示技术之一——当然,缺点也是显而易见的,成本高,技术攻克难,说是“卡脖子”方面并不为过。
而AI眼镜的硬件需求主要集中在处理器和传感器上。为了支持复杂的AI算法运算,AI眼镜需要内置强大的处理器。同时,为了收集环境信息,AI眼镜还需要配备摄像头、麦克风等传感器。这些传感器将收集到的信息传输给处理器进行处理和分析。虽然AI眼镜不需要像AR眼镜那样复杂的显示技术和光学组件,但它们在处理器和传感器方面的要求仍然很高。
这样一来,在成本造价上,AR眼镜和AI眼镜就有了明显的区别。AR眼镜一般都相对更贵,还拿Meta Orion AR眼镜为例,据说这款“真正的AR眼镜”光成本就高达1万美元。虽然目前只是技术探索阶段,未来如果想做消费级别的产品,肯定要进行廉价化的处理,但这造价也够让人震惊了。
反观Ray-Ban Meta眼镜,根据一些市场机构如Wellsenn XR的统计,它的综合硬件成本大约为164 美元。
为什么真正的AR眼镜很难出现
其实,了解了AR眼镜和AI眼镜的核心差异,也就不难理解为什么真正的AR眼镜在现阶段很难出现了。
首先就是技术上。上游的光学模组元件制造工艺复杂,导致成本高昂,这是制约AR眼镜普及的关键因素之一。此外,AR眼镜的各项性能指标之间存在关联性,如提高视场角(FOV)可能会导致眼盒(eye box)变小,而大的眼盒则需要更多光线来实现自然的亮度,这要求更强大的光源或更高的光效。
眼盒指的是AR眼镜上微型显示屏与眼球之间的一块锥形区域,也是显示内容最清晰的区域。如果眼盒太小的话,人眼就很难固定在清晰的图像位置上,当人眼偏离时,图像就会看不清。
显示技术如光波导的技术难度和成本价格自是不必多说,此外,硬件设计和生产方面的问题导致产品原型难以满足预期性能也是AR眼镜研发上的一个绊脚石。
另一个重要的问题是,AR眼镜目前还很难做到在达到性能需求的同时实现轻量化的需求。
星纪魅族的MYVU智能眼镜在国内算是相对比较轻的了,重量是43g
AR眼镜的显示系统需要集成微型显示屏、光学元件和驱动电路等组件,这些组件的集成度和功耗会直接影响AR眼镜的重量和性能。
即使有了可以同时满足性能和轻量化需求的技术,还有“量产”这一座大山挡在前面;而如果实现了量产,缺乏杀手级应用这一致命的问题又会导致产品难以被消费级用户广泛接受(就像Vision Pro那样),这样一来,前期的投入又无法获得期望收益……
从生产到销售的一环扣一环,让AR眼镜的普及难上加难。
然后人工智能出现了。Ray-Ban Meta AI眼镜的成功是显而易见的,这也让一直绞尽脑汁钻研AR眼镜的厂商们看到了新的希望,也许以目前的可穿戴设备市场来说,AI眼镜是一个不错的“过渡”。
AI眼镜并不是技术的妥协,
而是“曲线救国”
AI眼镜在技术上好实现,应用场景更广泛,从价格和功能上来说也更容易被消费者接受,再加上现在AI的爆火,使AI眼镜成了现在科技圈的“香饽饽”。
从AR到AI眼镜的转变标志着一种范式转变,这种转变来源于市场对可穿戴技术需求和发展的重新评估。行业现在的重点不是加倍投入能够实现高保真视觉效果的显示技术,而是通过更简单的界面和与手机的连接提供智能、及时和情境相关的信息——AI眼镜现在完全可以做到。
但大家就这样放弃AR眼镜了吗?其实也并不是的。虽然降低了一些技术需求,但是依旧有厂商一直在探索AR+AI的路径,在实现AI感知的同时,尽可能地满足AR方面的视觉感知。
这更像是另一种意义上的“曲线救国”。AI并不是AR的下位替代,在实际应用中,AI对信息的快速处理可以帮助识别和处理现实世界中的物体和场景,从而提高AR应用的准确性和实用性。同时,AR也可以为AI提供一个更加直观和自然的交互界面,使得用户可以更加方便地与AI进行交互——这就是现在厂商们想要做的AR+AI眼镜,虽然与真正的AR眼镜还有一些差距,但对于当前的消费市场来说已经足够。
AR眼镜的成熟之路将是一个循序渐进的过程,而不是一蹴而就。目前来说,不带显示屏的AI眼镜是最符合市场预期的智能眼镜产品,而AR眼镜则可以看做是智能眼镜的最终形态。
展望未来,很明显,短期内,我们所期待的AR眼镜将让位于AI眼镜。但并不意味着AR眼镜的发展会就此沉寂。
引用campaignasia文章里的一句话说:“如果说人工智能是一场席卷整个文化的野火,那么增强现实更像是冰川——虽然速度缓慢,但随着时间的推移,它能够重新塑造一个新的景观。”
文/清月泠
(文中未标注来源的图片均来源于网络)
原文标题 : AI+眼镜引发百镜大战 曾经的AR+是否已成弃子?
最近,国内厂商仿佛开启了AI眼镜大战。作为智能穿戴市场的新蓝海,AI眼镜市场竞争格局还尚未形成稳定的头部效应,因此多家企业都在积极研发和推广AI眼镜产品。除了传统眼镜厂商外,无论是科技大厂,还是初创企业,都纷纷下场,加剧了市场竞争:
今年8月,雷鸟创新官宣与博士眼镜合作,将共同开展新一代 AI 眼镜的研发设计、销售、营销与服务等工作;11月,影目科技联合紫光展锐共同发布了影目X系列AI眼镜开放平台;前不久,Rokid刚刚发布了集光波导+AI于一身的AR眼镜——Rokid Glasses;此外,国内引擎巨头百度推出的小度AI眼镜也将于2025年上半年与大家见面……
细数这些发布新品的企业,我们会发现,一些原本聚焦AR眼镜的厂商,也开始做AI眼镜了,还有一些宣传中常常会提到“AR+AI”眼镜。
要知道,虽然AR眼镜和AI眼镜都属于智能眼镜的范畴,但在技术原理、功能侧重点、硬件需求和应用场景等方面都存在显著的差异。在AI眼镜市场盛况空前的当下,也引发了些许疑问:AR眼镜和AI眼镜的区别到底是什么?本篇文章,我们就来详细梳理一下。
技术原理存在差异
AR眼镜的核心技术在于增强现实技术,即将虚拟信息叠加到用户的现实视野中,从而丰富用户的感知。
AR眼镜需要通过先进的显示技术来呈现虚拟图像。这些图像可以是静态的(如文字、图像),也可以是动态的(如视频、动画)。为了实现虚拟信息与现实世界的无缝融合。此外,AR眼镜还需要借助传感器和摄像头等设备,跟踪用户的头部和眼睛动作,实现更加自然和流畅的交互体验。
作为消费者,我们肯定希望一款AR眼镜能提供全息显示、清晰广阔的视野和轻量化外形等特质,这就使得显示技术成为了AR眼镜一个极其重要的技术支撑。对于当前的技术水平而言,具备轻薄和外界光线的高穿透特性的光波导显示技术被认为是消费级AR眼镜的必选光学方案——但同时也因为价格高和技术门槛高让人望而却步。
此外,传感器技术也尤为重要。这些传感器包括陀螺仪、加速度计、磁力计等,它们能够感知用户的头部姿态、眼睛位置、手势动作等信息,从而实现对用户的实时跟踪和交互。通过这些传感器,AR智能眼镜可以实现更准确、更自然的用户体验,用户可以通过头部姿态和手势来与虚拟信息进行交互,从而更加方便地操作设备和获取所需信息。
Meta在今年Connect 2024大会所展示的Orion AR眼镜,可以说是目前业内技术上最好的一款产品了(但也只是展示的)。它配备Micro LED 微显示投影和七个摄像头,可提供70度的视野,这比其它的AR眼镜更宽。
Orion可以实现不受智能手机屏幕限制的数字体验,借助大型全息显示屏,将物理世界用作画布,并通过手势交互设置2D和3D内容;它运用的显示技术也是当前产品中的佼佼者——据Meta称,Orion 拥有迄今为止最小 AR 眼镜中最大的视野,数字内容可以与物理世界的视野无缝融合。
而AI眼镜的技术原理则不同。AI眼镜主要依托内置的人工智能技术,包括机器学习、深度学习等。这些眼镜通过摄像头、麦克风等传感器收集环境信息,并利用智能算法进行处理和分析。但在显示技术方面,却没有太大的瓶颈。
以Meta的另一款产品,同时也是目前AI眼镜领域的大热产品Ray-Ban Meta 智能眼镜为例,Ray-Ban Meta配备内置扬声器、麦克风和摄像头,搭载生成式AI,但它不支持 AR 叠加。
Ray-Ban Meta并不追求显示器的像素密度,无全彩显示的需求,因为它的显示屏也只用作摄像系统,而不是增强现实内容的显示系统,因此也不具备沉浸式的视觉效果。
在这样的技术支持下,AI眼镜会更加专注于多媒体捕捉,而不具备 AR 功能。这种根本目的上的差异导致两类产品的显示质量和用户体验存在巨大差异。
功能上的侧重不同
AR眼镜的功能更侧重于提供沉浸式的增强现实体验。通过虚拟信息的叠加,AR眼镜可以让用户看到现实世界中不存在的虚拟物体,或者在现实环境中预览和修改设计作品。这种技术被广泛应用于教育、游戏、工业设计、军事训练等专业领域。
可以说,AR眼镜是对物理世界的虚拟重塑,是为了满足沉浸式应用的需求。
目前,AR眼镜在工业和医疗上的应用比较广泛,比如Vuzix,就是比较有代表性的产品之一。
其实,苹果Vision Pro的AR功能,也可以算是AR眼镜的理想功能了。我们曾看到过很多Vision Pro在医疗和企业领域的用例,尤其是医疗方面(可参考VRAR星球文章《被质疑的苹果Vision Pro,已经悄然改变了整个医疗领域》),Vision Pro的沉浸式辅助功能使它成为了医疗届的“新宠”——如果苹果的AR眼镜能照着这个路径发展,那也可以期待一下了。
的确,AR眼镜目前在B端的应用相对更广泛些。除此之外,Meta还曾在对Orion AR眼镜的愿景中提及了一些更生活化的AR眼镜功能。比如“可以打开冰箱,根据里面的东西询问食谱;或者一边洗碗一边调整数字家庭日历,一边给朋友打视频电话;甚至无需拿出手机,就能告诉朋友你快吃晚饭了”,Meta希望未来的AR眼镜可以与物理世界无缝地交互,仅通过眼镜完成所有的操作。
但遗憾的是,目前的消费级AR眼镜还远远没有这样的功能。以国内来说,目前市场上大部分的AR眼镜强调的都是它的观影功能,即使技术能达到Meta所描述的那种效果,消费级AR眼镜还缺乏所谓的“杀手级应用”,因此在功能上也颇受限制。
AI眼镜则恰恰相反。AI眼镜在功能上更注重智能化处理和人机交互。它们通过人工智能技术,实现了语音识别、图像识别、手势控制等高级功能。AI眼镜可以识别用户的语音指令,执行各种任务,如发送消息、查询天气、播放音乐等。此外,AI眼镜还可以利用图像识别技术,识别物体、人脸和场景,为用户提供更加智能化的服务。
AI眼镜更多的是对生活上的辅助。
例如实时翻译,实时导航语音播报,就是AI眼镜主推的功能。也正因为如此,一些AI眼镜在对聋哑人的需求支持上有十分显著的作用。
在接入AI语音交互后,AI眼镜的辅助作用就更加明显。想象一下,当你在日常的骑行过程中,一句话即可唤醒AI进行导航,耳边实时播报路况和指引——不用随时掏手机看导航,不仅节省时间,在行进过程中也更加安全。
目前在市场上已经取得较大成功的Ray-Ban Meta眼镜,主要功能也是集中在翻译、导航、AI生活提醒方面。据称Meta还计划为其添加视频拍摄分享、二维码和电话扫描功能,无疑将为日常生活提供更多便利。
从功能上来讲,AI眼镜的市场化更好实现,这也是除技术方面以外,AI眼镜在当下更受追捧的另一个原因。
对硬件的需求导致
成本不同,价格相差巨大
AR眼镜的硬件需求相对较高。除了需要强大的处理器和传感器来支持复杂的图像处理和虚拟信息叠加功能外,AR眼镜还需要额外的显示技术和相应的光学组件来创建虚拟图像。
前文我们提到,目前光波导显示技术被认为是消费级AR眼镜的必选光学方案,它能够适配近视眼镜,低功耗,长续航,且透光率高,是高端AR眼镜常用的显示技术之一——当然,缺点也是显而易见的,成本高,技术攻克难,说是“卡脖子”方面并不为过。
而AI眼镜的硬件需求主要集中在处理器和传感器上。为了支持复杂的AI算法运算,AI眼镜需要内置强大的处理器。同时,为了收集环境信息,AI眼镜还需要配备摄像头、麦克风等传感器。这些传感器将收集到的信息传输给处理器进行处理和分析。虽然AI眼镜不需要像AR眼镜那样复杂的显示技术和光学组件,但它们在处理器和传感器方面的要求仍然很高。
这样一来,在成本造价上,AR眼镜和AI眼镜就有了明显的区别。AR眼镜一般都相对更贵,还拿Meta Orion AR眼镜为例,据说这款“真正的AR眼镜”光成本就高达1万美元。虽然目前只是技术探索阶段,未来如果想做消费级别的产品,肯定要进行廉价化的处理,但这造价也够让人震惊了。
反观Ray-Ban Meta眼镜,根据一些市场机构如Wellsenn XR的统计,它的综合硬件成本大约为164 美元。
为什么真正的AR眼镜很难出现
其实,了解了AR眼镜和AI眼镜的核心差异,也就不难理解为什么真正的AR眼镜在现阶段很难出现了。
首先就是技术上。上游的光学模组元件制造工艺复杂,导致成本高昂,这是制约AR眼镜普及的关键因素之一。此外,AR眼镜的各项性能指标之间存在关联性,如提高视场角(FOV)可能会导致眼盒(eye box)变小,而大的眼盒则需要更多光线来实现自然的亮度,这要求更强大的光源或更高的光效。
眼盒指的是AR眼镜上微型显示屏与眼球之间的一块锥形区域,也是显示内容最清晰的区域。如果眼盒太小的话,人眼就很难固定在清晰的图像位置上,当人眼偏离时,图像就会看不清。
显示技术如光波导的技术难度和成本价格自是不必多说,此外,硬件设计和生产方面的问题导致产品原型难以满足预期性能也是AR眼镜研发上的一个绊脚石。
另一个重要的问题是,AR眼镜目前还很难做到在达到性能需求的同时实现轻量化的需求。
星纪魅族的MYVU智能眼镜在国内算是相对比较轻的了,重量是43g
AR眼镜的显示系统需要集成微型显示屏、光学元件和驱动电路等组件,这些组件的集成度和功耗会直接影响AR眼镜的重量和性能。
即使有了可以同时满足性能和轻量化需求的技术,还有“量产”这一座大山挡在前面;而如果实现了量产,缺乏杀手级应用这一致命的问题又会导致产品难以被消费级用户广泛接受(就像Vision Pro那样),这样一来,前期的投入又无法获得期望收益……
从生产到销售的一环扣一环,让AR眼镜的普及难上加难。
然后人工智能出现了。Ray-Ban Meta AI眼镜的成功是显而易见的,这也让一直绞尽脑汁钻研AR眼镜的厂商们看到了新的希望,也许以目前的可穿戴设备市场来说,AI眼镜是一个不错的“过渡”。
AI眼镜并不是技术的妥协,
而是“曲线救国”
AI眼镜在技术上好实现,应用场景更广泛,从价格和功能上来说也更容易被消费者接受,再加上现在AI的爆火,使AI眼镜成了现在科技圈的“香饽饽”。
从AR到AI眼镜的转变标志着一种范式转变,这种转变来源于市场对可穿戴技术需求和发展的重新评估。行业现在的重点不是加倍投入能够实现高保真视觉效果的显示技术,而是通过更简单的界面和与手机的连接提供智能、及时和情境相关的信息——AI眼镜现在完全可以做到。
但大家就这样放弃AR眼镜了吗?其实也并不是的。虽然降低了一些技术需求,但是依旧有厂商一直在探索AR+AI的路径,在实现AI感知的同时,尽可能地满足AR方面的视觉感知。
这更像是另一种意义上的“曲线救国”。AI并不是AR的下位替代,在实际应用中,AI对信息的快速处理可以帮助识别和处理现实世界中的物体和场景,从而提高AR应用的准确性和实用性。同时,AR也可以为AI提供一个更加直观和自然的交互界面,使得用户可以更加方便地与AI进行交互——这就是现在厂商们想要做的AR+AI眼镜,虽然与真正的AR眼镜还有一些差距,但对于当前的消费市场来说已经足够。
AR眼镜的成熟之路将是一个循序渐进的过程,而不是一蹴而就。目前来说,不带显示屏的AI眼镜是最符合市场预期的智能眼镜产品,而AR眼镜则可以看做是智能眼镜的最终形态。
展望未来,很明显,短期内,我们所期待的AR眼镜将让位于AI眼镜。但并不意味着AR眼镜的发展会就此沉寂。
引用campaignasia文章里的一句话说:“如果说人工智能是一场席卷整个文化的野火,那么增强现实更像是冰川——虽然速度缓慢,但随着时间的推移,它能够重新塑造一个新的景观。”
文/清月泠
(文中未标注来源的图片均来源于网络)
原文标题 : AI+眼镜引发百镜大战 曾经的AR+是否已成弃子?