iOS最强AI「视觉智能」,苹果AI眼镜的前哨

智车科技

12小时前

原文标题:iOS最强AI「视觉智能」,苹果AI眼镜的前哨。

文/VR陀螺 冉启行

在 iOS 18.2 Beta 2 上,苹果 Visual Intelligence(视觉智能)正式登场。

作为 Apple Intelligence 的一部分,Visual Intelligence 是 iPhone 16 系列上的「独占」功能。主要通过 iPhone 16系列上新增的相机按钮,利用摄像头捕捉物理世界的对象,并通过大模型分析有关该物体的「深度和有用信息」。

例如,拍摄餐厅的照片,用户可以立即获得其营业时间、评价和菜单等详细信息;拍摄活动传单的照片,该工具可以提取并整理重要详细信息,例如活动的名称、日期和地点。

Visual Intelligence 配合 iPhone 16 系列的相机按钮,具有免解锁、一键 AI 的特性,相对之前的 iPhone 或其他设备而言,具有更高效率。

基于 Visual Intelligence ,苹果也为接下来的 AI、AR 眼镜做了足够的技术铺垫、场景探索与用户习惯的养成。Ray-Ban Meta 已经证明了 AI  眼镜技术路径的可行性,苹果也于近日启动了代号为「Atlas」的智能眼镜项目,一场巨变正在酝酿。

Visual Intelligence ,以摄像头为核心的「空间GPT」 

相对文字形式,图形图像属于典型的空间数据,是人们日常获取信息最主要的方式。Visual Intelligence 的出现,让这种信息获取现在有了更数字化的方式。

海外媒体在 iOS 18.2 Beta 的评测信息显示,当 Visual Intelligence 界面打开时,只需点击相机快门按钮即可拍照。然后,用户可以点击屏幕上的按钮向 ChatGPT 询问图片,也可以按搜索按钮启动 Google 搜索。用户可以选择在没有帐户的情况下使用 ChatGP;如果不登录,请求将保持匿名。

从下方的三张图中,分别展示了利用 Visual Intelligence  进行「识别物体」,「计算食物卡路里」,以及「提取重要信息」的场景,不管是利用「物体图片进行检索文字信息」,还是利用「图片上的文字检索更深度的图片、文字信息」,Visual Intelligence 都能很好地给出答案。

不同的是,一些是显而易见的基础信息,一些是需要网络数据的挖掘匹配,还有一些是需要持续对话进行挖掘。当然,这些取决于前置的 Prompt,如果有更完善的 AI 工作流设定,相信它会基于每种不同的物体,甚至不同的用户,给出千人千面的答案。如:当识别图片物体为「食物」时,自动去分析它的「卡路里」以及相关营养信息,而不仅仅是告诉我,它是什么,将会进一步提升效率。

图源:CNET

图源:Future

图源:Apple

虽然 Visual Intelligence 与 Google Lens,或者百度的 AI 识图十分相似,但 Visual Intelligence 的与众不同之处在于它直接在 iPhone 上处理所有内容,而不是将数据发送到云端。

苹果软件工程高级副总裁 Craig Federighi 指出,Visual Intelligence 使用设备内处理技术结合苹果自己的服务。这意味着用户的照片将保持私密,不会上传到外部服务器。

iOS 18.2 预计将于 12 月份第一周面向美国地区正式推送。Visual Intelligence 是一个非常高效率的工具,将带来更好的 AI 交互提升与应用变革。

对于 AI 图像图形识别来说,目前智能手机无疑是最方便的电子产品,不过从交互维度来说,带摄像头的 AI/AR 眼镜或是更好的载体,至少让用户可以空出双手,不用一直握持 iPhone。

图源:tomsguide

苹果入局AI眼镜,项目代号「Atlas」 

据外媒消息,有知情人士透露,苹果于近日开启了一项全新的内部研究,该研究重点聚焦于智能眼镜的开发。

据称,这个新项目的代号为 Atlas。苹果收集了员工对于智能眼镜的看法,负责该计划的团队也向部分选定的员工发送了电子邮件,以此确认了在这一领域的产品研究情况。

当苹果计划推出新的品类产品时,通常会组建秘密小组。公司倾向于收集员工而非客户的反馈,目的在于保持计划的保密性。这些情况充分表明,苹果有意大力推进开发自己的智能眼镜的想法。

值得注意的是,报道称这项研究由苹果硬件工程部门的产品系统质量团队领导,其中并未提及苹果的 Vision 部门,这意味着苹果这款智能眼镜是不带光机的 AI 音频眼镜,与 Ray-Ban Meta 类似。结合早前苹果决定推迟 AR 眼镜的研发信息来看,具有较高可信度。

相对于 AR 智能眼镜而言,AI 音频眼镜不仅技术门槛相对更低,且供应链也十分成熟,体积重量上也普遍能做到 50g 以内的轻薄佩戴体验。不少业内人士认为 AI 音频眼镜是未来全彩 AR 眼镜重要的过渡产品,在目前消费市场中具备较高的市场竞争力。

作为iPhone的配件,「Atlas」具备强大市场潜力 

苹果拥有一整套最强的生态联动,正如 AirPods 与 iPhone 连接的高效率表现。苹果如果将 AI 眼镜定义为 iPhone 的「配件」,内置摄像头与麦克风,利用 iPhone 的 AI 算力,连接 Visual Intelligence 与加强版 Siri,充分利用自身的硬件生态,那将会是一个更加惊艳的硬件。

在所有可穿戴设备中,AI 眼镜拥有诸多先天产品设计上的优势,可配备第一人称视角的摄像头,所见即所得;近嘴的麦克风,更好地拾音效果;近耳的扬声器,更好地人机交互。可以说,目前苹果在 iOS 上所储备的 Visual Intelligence 与加强版 Siri 等 AI 技术都能在 AI 眼镜上得到更好的实现。

一直以来,苹果的消费级硬件都以「技术创新」和「场景创新」闻名,在 AI 眼镜上,我们也可以期待一下,苹果是否能做出一款真正超越 Ray-Ban Meta 的 AI 眼镜产品,满足一些额外的消费需求。

当然,与 Ray-Ban Meta 等第三方设备相比,从使用效率、连接体验上来看,手机厂商自身的硬件生态组合本身就会有一些明显优势,即使前者具备先发优势。

眼镜品类在目前的消费市场的确是一个大众产品,但也并非完完全全是一个生活「必需品」。对于无需近视矫正、户外遮阳的用户来说,佩戴眼镜事实上是一件非常困难的事。就个人而言,在没有养成眼镜佩戴习惯之前,即使 20-30g 的眼镜长时间佩戴也是一件非常困难的事,除非它真的能给我带来价值增量,就像 AirPods 和 Apple Watch 那样。

在古希腊神话中,Atlas(阿特拉斯)是擎天巨神,属于泰坦神族,他被宙斯降罪用双肩支撑苍天。从命名上来看,苹果对于这款硬件寄予厚望。然而,苹果的 AI 眼镜系列,能否真正支撑其苹果智能穿戴、甚至计算平台的下一个十年呢?

答案留给时间。

原文标题 : iOS最强AI「视觉智能」,苹果AI眼镜的前哨

原文标题:iOS最强AI「视觉智能」,苹果AI眼镜的前哨。

文/VR陀螺 冉启行

在 iOS 18.2 Beta 2 上,苹果 Visual Intelligence(视觉智能)正式登场。

作为 Apple Intelligence 的一部分,Visual Intelligence 是 iPhone 16 系列上的「独占」功能。主要通过 iPhone 16系列上新增的相机按钮,利用摄像头捕捉物理世界的对象,并通过大模型分析有关该物体的「深度和有用信息」。

例如,拍摄餐厅的照片,用户可以立即获得其营业时间、评价和菜单等详细信息;拍摄活动传单的照片,该工具可以提取并整理重要详细信息,例如活动的名称、日期和地点。

Visual Intelligence 配合 iPhone 16 系列的相机按钮,具有免解锁、一键 AI 的特性,相对之前的 iPhone 或其他设备而言,具有更高效率。

基于 Visual Intelligence ,苹果也为接下来的 AI、AR 眼镜做了足够的技术铺垫、场景探索与用户习惯的养成。Ray-Ban Meta 已经证明了 AI  眼镜技术路径的可行性,苹果也于近日启动了代号为「Atlas」的智能眼镜项目,一场巨变正在酝酿。

Visual Intelligence ,以摄像头为核心的「空间GPT」 

相对文字形式,图形图像属于典型的空间数据,是人们日常获取信息最主要的方式。Visual Intelligence 的出现,让这种信息获取现在有了更数字化的方式。

海外媒体在 iOS 18.2 Beta 的评测信息显示,当 Visual Intelligence 界面打开时,只需点击相机快门按钮即可拍照。然后,用户可以点击屏幕上的按钮向 ChatGPT 询问图片,也可以按搜索按钮启动 Google 搜索。用户可以选择在没有帐户的情况下使用 ChatGP;如果不登录,请求将保持匿名。

从下方的三张图中,分别展示了利用 Visual Intelligence  进行「识别物体」,「计算食物卡路里」,以及「提取重要信息」的场景,不管是利用「物体图片进行检索文字信息」,还是利用「图片上的文字检索更深度的图片、文字信息」,Visual Intelligence 都能很好地给出答案。

不同的是,一些是显而易见的基础信息,一些是需要网络数据的挖掘匹配,还有一些是需要持续对话进行挖掘。当然,这些取决于前置的 Prompt,如果有更完善的 AI 工作流设定,相信它会基于每种不同的物体,甚至不同的用户,给出千人千面的答案。如:当识别图片物体为「食物」时,自动去分析它的「卡路里」以及相关营养信息,而不仅仅是告诉我,它是什么,将会进一步提升效率。

图源:CNET

图源:Future

图源:Apple

虽然 Visual Intelligence 与 Google Lens,或者百度的 AI 识图十分相似,但 Visual Intelligence 的与众不同之处在于它直接在 iPhone 上处理所有内容,而不是将数据发送到云端。

苹果软件工程高级副总裁 Craig Federighi 指出,Visual Intelligence 使用设备内处理技术结合苹果自己的服务。这意味着用户的照片将保持私密,不会上传到外部服务器。

iOS 18.2 预计将于 12 月份第一周面向美国地区正式推送。Visual Intelligence 是一个非常高效率的工具,将带来更好的 AI 交互提升与应用变革。

对于 AI 图像图形识别来说,目前智能手机无疑是最方便的电子产品,不过从交互维度来说,带摄像头的 AI/AR 眼镜或是更好的载体,至少让用户可以空出双手,不用一直握持 iPhone。

图源:tomsguide

苹果入局AI眼镜,项目代号「Atlas」 

据外媒消息,有知情人士透露,苹果于近日开启了一项全新的内部研究,该研究重点聚焦于智能眼镜的开发。

据称,这个新项目的代号为 Atlas。苹果收集了员工对于智能眼镜的看法,负责该计划的团队也向部分选定的员工发送了电子邮件,以此确认了在这一领域的产品研究情况。

当苹果计划推出新的品类产品时,通常会组建秘密小组。公司倾向于收集员工而非客户的反馈,目的在于保持计划的保密性。这些情况充分表明,苹果有意大力推进开发自己的智能眼镜的想法。

值得注意的是,报道称这项研究由苹果硬件工程部门的产品系统质量团队领导,其中并未提及苹果的 Vision 部门,这意味着苹果这款智能眼镜是不带光机的 AI 音频眼镜,与 Ray-Ban Meta 类似。结合早前苹果决定推迟 AR 眼镜的研发信息来看,具有较高可信度。

相对于 AR 智能眼镜而言,AI 音频眼镜不仅技术门槛相对更低,且供应链也十分成熟,体积重量上也普遍能做到 50g 以内的轻薄佩戴体验。不少业内人士认为 AI 音频眼镜是未来全彩 AR 眼镜重要的过渡产品,在目前消费市场中具备较高的市场竞争力。

作为iPhone的配件,「Atlas」具备强大市场潜力 

苹果拥有一整套最强的生态联动,正如 AirPods 与 iPhone 连接的高效率表现。苹果如果将 AI 眼镜定义为 iPhone 的「配件」,内置摄像头与麦克风,利用 iPhone 的 AI 算力,连接 Visual Intelligence 与加强版 Siri,充分利用自身的硬件生态,那将会是一个更加惊艳的硬件。

在所有可穿戴设备中,AI 眼镜拥有诸多先天产品设计上的优势,可配备第一人称视角的摄像头,所见即所得;近嘴的麦克风,更好地拾音效果;近耳的扬声器,更好地人机交互。可以说,目前苹果在 iOS 上所储备的 Visual Intelligence 与加强版 Siri 等 AI 技术都能在 AI 眼镜上得到更好的实现。

一直以来,苹果的消费级硬件都以「技术创新」和「场景创新」闻名,在 AI 眼镜上,我们也可以期待一下,苹果是否能做出一款真正超越 Ray-Ban Meta 的 AI 眼镜产品,满足一些额外的消费需求。

当然,与 Ray-Ban Meta 等第三方设备相比,从使用效率、连接体验上来看,手机厂商自身的硬件生态组合本身就会有一些明显优势,即使前者具备先发优势。

眼镜品类在目前的消费市场的确是一个大众产品,但也并非完完全全是一个生活「必需品」。对于无需近视矫正、户外遮阳的用户来说,佩戴眼镜事实上是一件非常困难的事。就个人而言,在没有养成眼镜佩戴习惯之前,即使 20-30g 的眼镜长时间佩戴也是一件非常困难的事,除非它真的能给我带来价值增量,就像 AirPods 和 Apple Watch 那样。

在古希腊神话中,Atlas(阿特拉斯)是擎天巨神,属于泰坦神族,他被宙斯降罪用双肩支撑苍天。从命名上来看,苹果对于这款硬件寄予厚望。然而,苹果的 AI 眼镜系列,能否真正支撑其苹果智能穿戴、甚至计算平台的下一个十年呢?

答案留给时间。

原文标题 : iOS最强AI「视觉智能」,苹果AI眼镜的前哨

展开
打开“财经头条”阅读更多精彩资讯
最新评论

参与讨论

APP内打开