当前,人形机器人在交互智能与运动智能领域已经取得了显著进展,这既得益于AI大模型与深度学习技术的驱动,也离不开其在视觉、听觉及本体运动感知方面的能力提升。
然而,当任务场景从宏观运动控制延伸到精细的末端操作时,我们便遭遇了关键瓶颈。这一瓶颈的核心,在于机器人感知体系中有一个至关重要的缺失——触觉感知。
具体而言,尽管现有的视觉系统能精准识别物体的外观与空间位置,但它对操作过程中至关重要的力、振动、纹理、温度等物理属性却是“盲区”;而本体感知主要监测关节内部的电机状态(如角度、扭矩),无法直接捕捉末端执行器(如手指)与环境之间微观的相互作用力与接触状态。
触觉的缺席,使得机器人的操作行为在临界的接触瞬间失去了关键的反馈闭环,导致机器人难以精准、灵活且安全地完成复杂操作。
触觉感知的引入,不仅仅是扩展了机器人的感知维度,更使其能够真正“理解”物体特性与环境状态,包括软硬程度、表面纹理、实时受力分布,乃至微小的滑动趋势。这将有助于机器人在非结构化抓取、灵巧操作等复杂任务中,实现从“看得见”到“抓得稳、控得精”的跨越,从而大幅提升机器人在上肢操作方面的智能化水平。
一、视触觉传感器基础介绍
当前,基于传统方案的触觉传感器在机器人应用中仍存在一些问题,例如感知模态有限、精度与分辨率不足、系统可扩展性较弱,难以支撑机器人在复杂场景下的高操作任务要求。
与之相比,视触觉传感器以通过摄像头捕捉并表征接触过程中的弹性体形变,将触觉信息转换为高分辨率的视觉信号,从而能够实现对力、纹理、温度乃至物体姿态等多模态触觉信息的高精度感知。
1. 工作原理
视触觉传感器(Vision-Based Tactile Sensor,VBTS)是一种基于光学成像原理的触觉感知装置。其核心工作原理为:通过内置摄像头实时捕捉弹性接触表面在与物体交互时产生的微观形变,进而将这些形变信息转换为高分辨率的视觉信号,实现对多种触觉属性的精确测量。
人手触觉感知VS视触觉Sensor感知(图片来源:一目科技)
与传统单一维度的力传感器相比,视触觉传感器能够同步感知多维信息,包括:法向力与剪切力、物体表面的纹理特征、接触区域的相对滑动趋势等。该技术复现了接近人手的多维度触觉感知能力,为机器人灵巧操作提供了关键的传感基础。
2. 视触觉系统构成
视触觉传感系统的典型结构通常由接触模块、照明模块、图像采集模块和信息处理模块组成。四大模块按“物理接触rarr;光线辅助rarr;图像捕捉rarr;数据解析” 的闭环协同,实现对物体物理属性与交互力的精准感知。
视触觉传感器的结构组成
(图片来源:论文-Hardware Technology of Vision-Based Tactile Sensor: A Review)
备注:信息处理模块通常独立于传感器,单独布置。
1)接触模块:物理交互的“感知前端”。主体为柔性透光材料(如硅胶、水凝胶、弹性聚合物),内部嵌入微米级标记点。物体接触时产生弹性形变,通过内部标记点的位置偏移、形状变化,将物理接触信号(压力、剪切力、滑移)转化为可观测的结构变化。
2)照明模块:成像清晰的“光线保障”。以 LED 阵列(近红外光或可见光)为主,部分高端产品采用光纤光源或面光源。照亮接触模块内部的标记点,提升图像对比度,消除环境光干扰,为图像采集模块提供清晰的成像基础。LED光源有三种常见分布方式:垂直照明、侧照明和接触体/亚克力的全内反射。全内反射可以在狭小空间内实现均匀光照。
3)图像采集模块:视觉信号的“捕捉核心”。核心部件是摄像头(通常是CMOS传感器)。实时拍摄接触模块的动态形变图像,记录标记点的位置、形状变化,将物理形变转化为可计算的数字图像数据。事件相机、双目 / 多相机系统及红外相机等,则为特殊场景需求提供专属解决方案。
4)信息处理模块:触觉数据的“解析中枢”。系统装置的“大脑”,利用算法从图像序列中解析出触觉信息。
二、视触觉传感器特点分析
视触觉传感器的核心技术路径是将光学成像与深度学习模型相结合。它通过摄像头捕获接触引发的形变,再依赖算法模型建立从视觉序列到触觉物理量(如力、滑动)的映射。
这一模式高度依赖于高质量的标注数据和强大的模型训练,因此前期数据采集与训练成本较高。然而,由于它的感知基础是高分辨率的图像信息,其理论性能上限远高于传统基于离散电子元件的触觉传感器,能够揭示更丰富的接触物理现象。
视触觉传感器不仅突破了传统触觉感知在精度与模态上的技术瓶颈,更以其图像化、高兼容的数据形式,为机器人灵巧操作和跨模态学习的实现提供了关键感知基础,被视为推动机器人进入真实复杂场景应用的关键组件。
具体来讲,视触觉传感器具有以下优势:
1)高分辨率:提供高空间分辨率的触觉信息,而非离散点的采样数据。这使得它能够捕捉微米级的表面纹理与几何特征,实现更加精细的触觉感知。
2)多模态信息:可从单次接触的形变图像中,同步解析出法向/剪切力、压力分布、表面纹理、滑动趋势等多种物理信息,提供更为全面的触觉信息。
3)系统集成简化:其核心感知元件为摄像头,避免了在触觉传感器中密集排布大量电子元件所带来的复杂布线与封装挑战。
4)抗干扰性强:由于采用光学信号采集方式,视触觉传感器对环境中的电磁干扰、温湿度波动具有天然的抵抗能力,稳定性更高。
5)与视觉AI的天然协同:其输出为标准的图像格式,与主流的计算机视觉算法及AI大模型(如深度学习网络)能够更好地进行兼容。
然而,视触觉传感器是一项“天花板”很高但“地板”也很高的技术——其理论潜能巨大,但需要同时在硬件设计(材料、集成)、算法创新(效率、泛化)和算力支撑等多个前沿阵地取得突破,才能将其潜力转化为在复杂场景下稳定、可靠的机器人感知能力。
例如,有相关业内专家曾提到视触觉传感器在机器人领域应用仍面临着一些关键挑战。
1)还难以在复杂曲面上实现大范围集成与无缝感知。基于相机的成像系统需要特定的光路厚度和视角(FOV),这导致传感器难以在保持高性能的同时,被微型化并紧密排布于指尖、指腹、掌部等具有复杂曲率的表面上。
2)难以弥补传感器物理极限与系统控制需求之间的差距。灵活性瓶颈—— 为了产生足够光学相机捕捉的形变,需要一定的压强(例如硅胶产生可被观测的形变压强在1kPa以上)。这导致其对微细力和纳米级位移的响应不敏感;实时性瓶颈 —— 高帧率、高分辨率的图像流处理,叠加复杂的3D重建与力解算过程,造成了显著的信号延迟,无法满足实时闭环控制的苛刻需
三、主流企业重点信息梳理
1. GelSight
GelSight inc成立于 2011 年,由 MIT 计算机科学与人工智能实验室(CSAIL)的 Edward Adelson 教授团队创立,总部位于美国马萨诸塞州。GelSight inc是3D 触觉传感技术领域的领导者,专注于开发革命性的触觉感知解决方案,将高精度 3D 表面测量和机器人触觉带入工业应用。
GelSight 技术源自 2009 年Edward Adelson 教授团队的前沿的学术研究成果。当时,Edward Adelson提出了基于三色光原理的视触觉感知技术 —— GelSight。其中,Gel(凝胶)指传感器弹性接触表面使用的材料;Sight(视觉)指传感机制是使用摄像头采集视觉图像。
GelSight触觉传感器结构 (GelSight 2017论文)
传感器在接触物体时,会使用红、绿、蓝三色光照射物体表面,内置的摄像头在LED灯光的辅助下捕捉接触物体的凝胶产生的形变,并通过计算机视觉的算法将凝胶形变信息与触觉信息进行映射。
在此之前,GelSight主要是应用于物体表面微观结构的观测。直到2013年,Edward Adelson团队首次将GelSight与机器人触觉感知进行结合,构建了一个包含40个触觉纹理类别的数据库,GelSight 传感器可以帮助机器人正确分类来自该数据库的材料。
2014年,Edward Adelson团队提出了全球第一个用于机器人的10微米级别的指尖视触觉传感器Fingertip GelSight Sensor 。该传感器同时具备小型化和超高分辨率的特性,且具备实时测量法向力、剪切力、相对滑动等能力。
2018年,Edward Adelson团队在2014年工作的基础上对GelSight指尖传感器进一步小型化,通过对内部结构进行调整,将传感器厚度减薄,提出了GelSlim指尖传感器。
GelsSight Sensor VS GelSlim Sensor(GelSight 2018论文)
2022 年,Alberto Rodriguez 团队在 2018 年 GelSlim 的基础上,通过优化照明源至相机的光学路径,进一步提升集成紧凑性,推出了 GelSlim 3.0。同年,GelSight Inc.推出了机器人触觉传感器GelSight Mini,售价499美元。据悉,该款产品的设计和技术沿用了GelSight 在2014年所提出的指尖触觉传感器方案。
GelSight Mini产品示意图(图片来源:GelSight 官网)
2. 戴盟机器人
戴盟(深圳)机器人科技有限公司(简称“戴盟机器人”)成立于2021年12月,2023年8月正式运营,总部位于深圳,并在香港、美国波士顿设有研发机构。公司致力于研发高分辨率多模态触觉感知、触觉灵巧手软硬件产品及穿戴式遥操作数据采集系统。
戴盟机器人孵化于香港科技大学科研团队,在视触觉传感器、多指灵巧手设计与制造、类人行为学习与泛化、含视觉触觉的感知操作大模型等前沿领域深耕多年。公司创始团队由机器人领域国际权威王煜教授与触觉感知技术青年专家段江哗博士领衔。
1)王煜教授:首席科学家兼联合创始人,香港科技大学机器人研究院创始院长、IEEE机器人与自动化学会(RAS)理事会成员,深耕触觉感知、仿生设计与机器人学习领域,提出“具身技能”与“技能克隆”等创新概念。
2)段江哗博士:创始人兼CEO,曾在中国科学院-香港中文大学深圳先进集成技术研究所从事机器人操作学习研究,带领团队在国际机器人赛事中多次获奖,并主导了全球首款毫米级视触觉传感器的研发。
在视触觉传感器领域,王煜团队则选择了一条与MIT GelSight截然不同的道路:放弃三色光,采用单色光图案追踪原理,通过计算机视觉追踪特征点,结合几何标定,将二维形变场重建为三维稠密形变场。
2025年4月,戴盟机器人发布了其首款多维高分辨率高频率视触觉传感器——DM-Tac W。该传感器便是采用了基于单色光原理的高分辨率视触觉感知技术路线。
DM-Tac W的核心特点如下:
超高密度感知:其感知单元密度达到每平方厘米4万个,能够以微米级的精度捕捉接触表面的细微变化,实现了真正的高分辨率触觉成像。
多维力同步解算:可同步、精确地测量正压力(垂直于表面)与切向力(平行于表面),为机器人灵巧操作提供了关键的力学反馈维度。
原创单色光技术:传感器内部集成了摄像头,通过实时捕捉物体接触在密闭光场中引发的微观形变,并结合原创算法解析这些光场变化,从而将物理接触精确转化为触觉信号。
高实时性:触觉信号的输出频率高达120Hz,这一高刷新率确保了机器人控制系统能够及时获取触觉信息,满足动态、高速操作任务对实时反馈的需求。
戴盟视触觉传感器DM-Tac W(来源:戴盟机器人)
3. 纬钛机器人
上海纬钛科技有限公司(简称:纬钛机器人)成立于2024 年1月,总部位于上海。创始人李瑞博士毕业于美国麻省理工学院(MIT),师从美国两院院士Edward Adelson教授。
在MIT读博期间,李瑞与导师Edward(Ted) Adelson教授共同开创了高分辨率视触觉传感技术,发明了全球首个分辨率超越人类手指的传感器—GelSight,
公司的定位是以现有发明的高性能视触觉传感器为基础,进一步改进升级,打造更加“心灵手巧”的类人智能机器人,引领下一代机器人灵巧操控的范式革命。
在视触觉传感器领域,纬钛机器人推出了视触觉传感器GF225。该传感器具有如下特点:
高分辨率:拥有10微米级分辨率,1平方厘米可达数万触觉信息点;
多维力测量:可同时测量法向力和切向力,无需单独设置,可自动判断物体的抓取力;
柔性物体操作:可处理各类软硬物体,如衣物、线缆、食物等;
抗环境干扰能力强:不容易受温湿度、电磁场等环境影响。
另外,GF225提供Linux SDK支持,可与OpenCV、PyTorch、TensorRT、ROS/ROS2、MuJoCo、Isaac Sim 等工具集成,方便用户实现多样化触觉与视觉数据分析,为科研与产业应用提供无限延展空间。
GF225视触觉传感器参数信息(来源:纬钛机器人官网)
4. 一目科技
一目科技2015 年始创于美国硅谷,而深圳一目科技有限公司在2016年5月正式成立。该公司专注于多模态感知 + AI 技术研发与应用,致力于通过感知技术加速 AI 智能体演进,构建 "感知 - 计算 - 执行" 全链路解决方案。
公司的核心战略是构建 "感知层 - 算法层 - 应用层" 三位一体技术架构,赋能仪器智能、生活空间和具身智能三大领域。
一目科技创始人李智强博士毕业于卡内基梅隆大学,钻研大数据模型软件、微流体生物传感器、光谱芯片等技术超20年。
在视触觉传感器领域,一目科技在IROS 2025展示其自主研发的可商用的仿生视触觉传感器。该传感器采用仿人体指腹形态接触面设计,通过内置摄像头捕捉弹性材料受压时的细微形变,获取高清“触觉照片”序列,并利用AI解算出物体软硬、表面纹理及滑动趋势等多维触觉信号。
在感知性能上,传感器具备微米级形变解算精度、0.005N力分辨率、响应时间8ms和最高120fps输出帧率。在工程上,通过优化耐磨软弹性体与Marker标记点工艺,确保长期耐用性,适用于复杂实际场景。
一目科技采用全栈仿真工作流进行光学设计,有效缩小Sim-to-Real差距,可在虚拟环境中完成大量测试与调优,加速产品迭代并降低开发成本。
一目科技视触觉传感器性能参数(来源:一目科技)
5. 叠动科技
深圳叠动科技有限公司成立于2025年4月,总部位于深圳,专注于视触觉传感器技术研发。公司依托在传感器领域多年的技术积累与资源优势,将微机电系统(MEMS)工艺与视触觉传感器相结合,成功研发出毫米级高性能视触觉传感器,并获第50届日内瓦发明奖金奖。
这为机器人操作和电子皮肤应用提供小型化、多模态触觉感知技术支持,可广泛应用在灵巧手操作,末端抓取等场景。
2025年7月,叠动科技宣布完成来自隆盛科技的战略投资。隆盛科技是一家聚焦先进制造领域的上市公司,在精密制造、工业机器人应用等领域有着丰富经验和成熟的市场布局。
叠动科技通过与隆盛科技的深度合作,将进一步加速触觉传感器在工业、服务、医疗等领域的规模化应用,为全球客户提供更高效、更智能化的解决方案。
原文标题 : 解锁人形机器人灵巧操作智能—— 视触觉传感器或许是关键钥匙
当前,人形机器人在交互智能与运动智能领域已经取得了显著进展,这既得益于AI大模型与深度学习技术的驱动,也离不开其在视觉、听觉及本体运动感知方面的能力提升。
然而,当任务场景从宏观运动控制延伸到精细的末端操作时,我们便遭遇了关键瓶颈。这一瓶颈的核心,在于机器人感知体系中有一个至关重要的缺失——触觉感知。
具体而言,尽管现有的视觉系统能精准识别物体的外观与空间位置,但它对操作过程中至关重要的力、振动、纹理、温度等物理属性却是“盲区”;而本体感知主要监测关节内部的电机状态(如角度、扭矩),无法直接捕捉末端执行器(如手指)与环境之间微观的相互作用力与接触状态。
触觉的缺席,使得机器人的操作行为在临界的接触瞬间失去了关键的反馈闭环,导致机器人难以精准、灵活且安全地完成复杂操作。
触觉感知的引入,不仅仅是扩展了机器人的感知维度,更使其能够真正“理解”物体特性与环境状态,包括软硬程度、表面纹理、实时受力分布,乃至微小的滑动趋势。这将有助于机器人在非结构化抓取、灵巧操作等复杂任务中,实现从“看得见”到“抓得稳、控得精”的跨越,从而大幅提升机器人在上肢操作方面的智能化水平。
一、视触觉传感器基础介绍
当前,基于传统方案的触觉传感器在机器人应用中仍存在一些问题,例如感知模态有限、精度与分辨率不足、系统可扩展性较弱,难以支撑机器人在复杂场景下的高操作任务要求。
与之相比,视触觉传感器以通过摄像头捕捉并表征接触过程中的弹性体形变,将触觉信息转换为高分辨率的视觉信号,从而能够实现对力、纹理、温度乃至物体姿态等多模态触觉信息的高精度感知。
1. 工作原理
视触觉传感器(Vision-Based Tactile Sensor,VBTS)是一种基于光学成像原理的触觉感知装置。其核心工作原理为:通过内置摄像头实时捕捉弹性接触表面在与物体交互时产生的微观形变,进而将这些形变信息转换为高分辨率的视觉信号,实现对多种触觉属性的精确测量。
人手触觉感知VS视触觉Sensor感知(图片来源:一目科技)
与传统单一维度的力传感器相比,视触觉传感器能够同步感知多维信息,包括:法向力与剪切力、物体表面的纹理特征、接触区域的相对滑动趋势等。该技术复现了接近人手的多维度触觉感知能力,为机器人灵巧操作提供了关键的传感基础。
2. 视触觉系统构成
视触觉传感系统的典型结构通常由接触模块、照明模块、图像采集模块和信息处理模块组成。四大模块按“物理接触rarr;光线辅助rarr;图像捕捉rarr;数据解析” 的闭环协同,实现对物体物理属性与交互力的精准感知。
视触觉传感器的结构组成
(图片来源:论文-Hardware Technology of Vision-Based Tactile Sensor: A Review)
备注:信息处理模块通常独立于传感器,单独布置。
1)接触模块:物理交互的“感知前端”。主体为柔性透光材料(如硅胶、水凝胶、弹性聚合物),内部嵌入微米级标记点。物体接触时产生弹性形变,通过内部标记点的位置偏移、形状变化,将物理接触信号(压力、剪切力、滑移)转化为可观测的结构变化。
2)照明模块:成像清晰的“光线保障”。以 LED 阵列(近红外光或可见光)为主,部分高端产品采用光纤光源或面光源。照亮接触模块内部的标记点,提升图像对比度,消除环境光干扰,为图像采集模块提供清晰的成像基础。LED光源有三种常见分布方式:垂直照明、侧照明和接触体/亚克力的全内反射。全内反射可以在狭小空间内实现均匀光照。
3)图像采集模块:视觉信号的“捕捉核心”。核心部件是摄像头(通常是CMOS传感器)。实时拍摄接触模块的动态形变图像,记录标记点的位置、形状变化,将物理形变转化为可计算的数字图像数据。事件相机、双目 / 多相机系统及红外相机等,则为特殊场景需求提供专属解决方案。
4)信息处理模块:触觉数据的“解析中枢”。系统装置的“大脑”,利用算法从图像序列中解析出触觉信息。
二、视触觉传感器特点分析
视触觉传感器的核心技术路径是将光学成像与深度学习模型相结合。它通过摄像头捕获接触引发的形变,再依赖算法模型建立从视觉序列到触觉物理量(如力、滑动)的映射。
这一模式高度依赖于高质量的标注数据和强大的模型训练,因此前期数据采集与训练成本较高。然而,由于它的感知基础是高分辨率的图像信息,其理论性能上限远高于传统基于离散电子元件的触觉传感器,能够揭示更丰富的接触物理现象。
视触觉传感器不仅突破了传统触觉感知在精度与模态上的技术瓶颈,更以其图像化、高兼容的数据形式,为机器人灵巧操作和跨模态学习的实现提供了关键感知基础,被视为推动机器人进入真实复杂场景应用的关键组件。
具体来讲,视触觉传感器具有以下优势:
1)高分辨率:提供高空间分辨率的触觉信息,而非离散点的采样数据。这使得它能够捕捉微米级的表面纹理与几何特征,实现更加精细的触觉感知。
2)多模态信息:可从单次接触的形变图像中,同步解析出法向/剪切力、压力分布、表面纹理、滑动趋势等多种物理信息,提供更为全面的触觉信息。
3)系统集成简化:其核心感知元件为摄像头,避免了在触觉传感器中密集排布大量电子元件所带来的复杂布线与封装挑战。
4)抗干扰性强:由于采用光学信号采集方式,视触觉传感器对环境中的电磁干扰、温湿度波动具有天然的抵抗能力,稳定性更高。
5)与视觉AI的天然协同:其输出为标准的图像格式,与主流的计算机视觉算法及AI大模型(如深度学习网络)能够更好地进行兼容。
然而,视触觉传感器是一项“天花板”很高但“地板”也很高的技术——其理论潜能巨大,但需要同时在硬件设计(材料、集成)、算法创新(效率、泛化)和算力支撑等多个前沿阵地取得突破,才能将其潜力转化为在复杂场景下稳定、可靠的机器人感知能力。
例如,有相关业内专家曾提到视触觉传感器在机器人领域应用仍面临着一些关键挑战。
1)还难以在复杂曲面上实现大范围集成与无缝感知。基于相机的成像系统需要特定的光路厚度和视角(FOV),这导致传感器难以在保持高性能的同时,被微型化并紧密排布于指尖、指腹、掌部等具有复杂曲率的表面上。
2)难以弥补传感器物理极限与系统控制需求之间的差距。灵活性瓶颈—— 为了产生足够光学相机捕捉的形变,需要一定的压强(例如硅胶产生可被观测的形变压强在1kPa以上)。这导致其对微细力和纳米级位移的响应不敏感;实时性瓶颈 —— 高帧率、高分辨率的图像流处理,叠加复杂的3D重建与力解算过程,造成了显著的信号延迟,无法满足实时闭环控制的苛刻需
三、主流企业重点信息梳理
1. GelSight
GelSight inc成立于 2011 年,由 MIT 计算机科学与人工智能实验室(CSAIL)的 Edward Adelson 教授团队创立,总部位于美国马萨诸塞州。GelSight inc是3D 触觉传感技术领域的领导者,专注于开发革命性的触觉感知解决方案,将高精度 3D 表面测量和机器人触觉带入工业应用。
GelSight 技术源自 2009 年Edward Adelson 教授团队的前沿的学术研究成果。当时,Edward Adelson提出了基于三色光原理的视触觉感知技术 —— GelSight。其中,Gel(凝胶)指传感器弹性接触表面使用的材料;Sight(视觉)指传感机制是使用摄像头采集视觉图像。
GelSight触觉传感器结构 (GelSight 2017论文)
传感器在接触物体时,会使用红、绿、蓝三色光照射物体表面,内置的摄像头在LED灯光的辅助下捕捉接触物体的凝胶产生的形变,并通过计算机视觉的算法将凝胶形变信息与触觉信息进行映射。
在此之前,GelSight主要是应用于物体表面微观结构的观测。直到2013年,Edward Adelson团队首次将GelSight与机器人触觉感知进行结合,构建了一个包含40个触觉纹理类别的数据库,GelSight 传感器可以帮助机器人正确分类来自该数据库的材料。
2014年,Edward Adelson团队提出了全球第一个用于机器人的10微米级别的指尖视触觉传感器Fingertip GelSight Sensor 。该传感器同时具备小型化和超高分辨率的特性,且具备实时测量法向力、剪切力、相对滑动等能力。
2018年,Edward Adelson团队在2014年工作的基础上对GelSight指尖传感器进一步小型化,通过对内部结构进行调整,将传感器厚度减薄,提出了GelSlim指尖传感器。
GelsSight Sensor VS GelSlim Sensor(GelSight 2018论文)
2022 年,Alberto Rodriguez 团队在 2018 年 GelSlim 的基础上,通过优化照明源至相机的光学路径,进一步提升集成紧凑性,推出了 GelSlim 3.0。同年,GelSight Inc.推出了机器人触觉传感器GelSight Mini,售价499美元。据悉,该款产品的设计和技术沿用了GelSight 在2014年所提出的指尖触觉传感器方案。
GelSight Mini产品示意图(图片来源:GelSight 官网)
2. 戴盟机器人
戴盟(深圳)机器人科技有限公司(简称“戴盟机器人”)成立于2021年12月,2023年8月正式运营,总部位于深圳,并在香港、美国波士顿设有研发机构。公司致力于研发高分辨率多模态触觉感知、触觉灵巧手软硬件产品及穿戴式遥操作数据采集系统。
戴盟机器人孵化于香港科技大学科研团队,在视触觉传感器、多指灵巧手设计与制造、类人行为学习与泛化、含视觉触觉的感知操作大模型等前沿领域深耕多年。公司创始团队由机器人领域国际权威王煜教授与触觉感知技术青年专家段江哗博士领衔。
1)王煜教授:首席科学家兼联合创始人,香港科技大学机器人研究院创始院长、IEEE机器人与自动化学会(RAS)理事会成员,深耕触觉感知、仿生设计与机器人学习领域,提出“具身技能”与“技能克隆”等创新概念。
2)段江哗博士:创始人兼CEO,曾在中国科学院-香港中文大学深圳先进集成技术研究所从事机器人操作学习研究,带领团队在国际机器人赛事中多次获奖,并主导了全球首款毫米级视触觉传感器的研发。
在视触觉传感器领域,王煜团队则选择了一条与MIT GelSight截然不同的道路:放弃三色光,采用单色光图案追踪原理,通过计算机视觉追踪特征点,结合几何标定,将二维形变场重建为三维稠密形变场。
2025年4月,戴盟机器人发布了其首款多维高分辨率高频率视触觉传感器——DM-Tac W。该传感器便是采用了基于单色光原理的高分辨率视触觉感知技术路线。
DM-Tac W的核心特点如下:
超高密度感知:其感知单元密度达到每平方厘米4万个,能够以微米级的精度捕捉接触表面的细微变化,实现了真正的高分辨率触觉成像。
多维力同步解算:可同步、精确地测量正压力(垂直于表面)与切向力(平行于表面),为机器人灵巧操作提供了关键的力学反馈维度。
原创单色光技术:传感器内部集成了摄像头,通过实时捕捉物体接触在密闭光场中引发的微观形变,并结合原创算法解析这些光场变化,从而将物理接触精确转化为触觉信号。
高实时性:触觉信号的输出频率高达120Hz,这一高刷新率确保了机器人控制系统能够及时获取触觉信息,满足动态、高速操作任务对实时反馈的需求。
戴盟视触觉传感器DM-Tac W(来源:戴盟机器人)
3. 纬钛机器人
上海纬钛科技有限公司(简称:纬钛机器人)成立于2024 年1月,总部位于上海。创始人李瑞博士毕业于美国麻省理工学院(MIT),师从美国两院院士Edward Adelson教授。
在MIT读博期间,李瑞与导师Edward(Ted) Adelson教授共同开创了高分辨率视触觉传感技术,发明了全球首个分辨率超越人类手指的传感器—GelSight,
公司的定位是以现有发明的高性能视触觉传感器为基础,进一步改进升级,打造更加“心灵手巧”的类人智能机器人,引领下一代机器人灵巧操控的范式革命。
在视触觉传感器领域,纬钛机器人推出了视触觉传感器GF225。该传感器具有如下特点:
高分辨率:拥有10微米级分辨率,1平方厘米可达数万触觉信息点;
多维力测量:可同时测量法向力和切向力,无需单独设置,可自动判断物体的抓取力;
柔性物体操作:可处理各类软硬物体,如衣物、线缆、食物等;
抗环境干扰能力强:不容易受温湿度、电磁场等环境影响。
另外,GF225提供Linux SDK支持,可与OpenCV、PyTorch、TensorRT、ROS/ROS2、MuJoCo、Isaac Sim 等工具集成,方便用户实现多样化触觉与视觉数据分析,为科研与产业应用提供无限延展空间。
GF225视触觉传感器参数信息(来源:纬钛机器人官网)
4. 一目科技
一目科技2015 年始创于美国硅谷,而深圳一目科技有限公司在2016年5月正式成立。该公司专注于多模态感知 + AI 技术研发与应用,致力于通过感知技术加速 AI 智能体演进,构建 "感知 - 计算 - 执行" 全链路解决方案。
公司的核心战略是构建 "感知层 - 算法层 - 应用层" 三位一体技术架构,赋能仪器智能、生活空间和具身智能三大领域。
一目科技创始人李智强博士毕业于卡内基梅隆大学,钻研大数据模型软件、微流体生物传感器、光谱芯片等技术超20年。
在视触觉传感器领域,一目科技在IROS 2025展示其自主研发的可商用的仿生视触觉传感器。该传感器采用仿人体指腹形态接触面设计,通过内置摄像头捕捉弹性材料受压时的细微形变,获取高清“触觉照片”序列,并利用AI解算出物体软硬、表面纹理及滑动趋势等多维触觉信号。
在感知性能上,传感器具备微米级形变解算精度、0.005N力分辨率、响应时间8ms和最高120fps输出帧率。在工程上,通过优化耐磨软弹性体与Marker标记点工艺,确保长期耐用性,适用于复杂实际场景。
一目科技采用全栈仿真工作流进行光学设计,有效缩小Sim-to-Real差距,可在虚拟环境中完成大量测试与调优,加速产品迭代并降低开发成本。
一目科技视触觉传感器性能参数(来源:一目科技)
5. 叠动科技
深圳叠动科技有限公司成立于2025年4月,总部位于深圳,专注于视触觉传感器技术研发。公司依托在传感器领域多年的技术积累与资源优势,将微机电系统(MEMS)工艺与视触觉传感器相结合,成功研发出毫米级高性能视触觉传感器,并获第50届日内瓦发明奖金奖。
这为机器人操作和电子皮肤应用提供小型化、多模态触觉感知技术支持,可广泛应用在灵巧手操作,末端抓取等场景。
2025年7月,叠动科技宣布完成来自隆盛科技的战略投资。隆盛科技是一家聚焦先进制造领域的上市公司,在精密制造、工业机器人应用等领域有着丰富经验和成熟的市场布局。
叠动科技通过与隆盛科技的深度合作,将进一步加速触觉传感器在工业、服务、医疗等领域的规模化应用,为全球客户提供更高效、更智能化的解决方案。
原文标题 : 解锁人形机器人灵巧操作智能—— 视触觉传感器或许是关键钥匙