一、人形机器人与 3D 视觉的邂逅
人形机器人为何需要 3D 视觉?随着科技的不断发展,人形机器人的应用场景日益广泛,从工业制造到家庭服务,从农业采摘到物流运输,都对机器人的感知能力提出了更高要求。3D 视觉作为一种深度感应技术,能够为机器人提供精准的三维空间信息,使其更好地理解周围环境,实现自主导航、物体识别与抓取等功能。
感知传感器是人形机器人迈向智能化的基础。如同智能驾驶需要感知 - 决策 - 执行三部曲,人形机器人也需要这样的流程:通过传感器感知关键状态,经过微处理器、计算机或神经网络处理分析后,交由机械臂、双足或轮子等移动装置或加热 / 制冷设备等非移动装置执行相关工作。传感器是能感受被测量并按照一定的规律转换成可用输出信号的器件或装置,一般由敏感元件、微处理器、信号转换电路三部分组成。其中敏感元件是指直接感受测量信息,并输出与被测量信息成确定关系的某一物理量的元件;微处理器是指以敏感元件的输出为输入,把输入数据转化为电路信息的元件;信号转换电路再将电路参数转换成便于测量的电信号,实现信号的获取与输出。传感器通过各种元件测量外部信息,而作为人形机器人感知系统的核心组件,感知传感器是机器人系统获取外界状态和自身状态的重要途径,也是机器人迈向自主化、智能化的基础。
在人形机器人应用领域,3D 视觉传感器可以帮助机器人高效完成人脸识别、距离感知、避障、导航等功能,使其更加智能化。根据图像信息获取维度、处理数据类型的不同,机器视觉可划分为 2D 视觉与 3D 视觉。2D 视觉通过工业相机来获取平面图片,主要基于物体的一个平面特征进行后续分析,无法获取物体的空间坐标信息。3D 视觉能够采集视野内空间每个点位的三维坐标信息,通过算法获取三维立体成像,并根据这些数据信息分析得出有关目标对象在空间中的位置、形状、体积、平面度等信息,以达到检测、引导、测量、定位等功能。随着智能制造的不断深入,面对复杂的物件辨识和尺寸量度任务,以及人机互动所需要的复杂互动,2D 视觉在精度和距离测量方面均出现部分技术局限,市场对 3D 视觉的需求开始与日俱增。
目前人形机器人视觉传感技术主要使用多目立体视觉和 iToF 法。多目立体视觉是立体视觉方法中的一种,最少使用 3 个摄像头即可实现,用单个或多个相机从多个视点获取同一个目标场景的多幅图像,重构目标场景的三维信息,特斯拉和 UCLA 均使用 3 个 3D 相机即可实现多目立体视觉。iToF 是指时间往返行程采用时间选通光子计数器或电荷积分器外推获得而不需要精准计时的方案,可以实现面积范围成像,小米和波士顿动力使用该方案。
机器视觉市场的市场主要被美、德、日品牌占据,主要有美国康耐视、德国巴斯勒、日本基恩士和欧姆龙等,其中基恩士和康耐视作为全球机器视觉行业的两大巨头,垄断了超 60% 的全球市场份额。我国机器视觉市场起步较晚,直到 20 世纪末期才陆续有相关技术公司成立,且销售规模较小,相关企业有奥比中光、伟景智能、远形时空等。此外,3D 视觉传感器相关企业有英飞凌、奥比中光、瑞芯微、华捷艾米等。
奥比中光在互动平台表示,公司的 3D 视觉感知技术及 3D 视觉传感器可以满足人形机器人的环境感知需求。视觉能力作为包括人形机器人在内的各类智能终端的 “眼睛”,是智能终端间交互及人机交互中不可或缺的关键一环。公司 3D 视觉感知技术是为人工智能提供三维视觉能力的关键共性技术,也是科技创新领域的前沿技术之一。多年来,公司专注于 3D 视觉感知技术研发,拥有较深的神经网络芯片及算法的技术累积,相关技术未来可在人形机器人等多形态的终端上进行应用。
二、3D 视觉技术的奥秘
(一)技术原理
1.3D 重构技术:获取 3D 信息、重构 3D 场景,常用技术类型有被动 3D 视觉技术(单目 3D、双目 3D 和多目 3D)、激光 3D 扫描技术、结构光 3D 技术、TOF 相机技术等。
•被动 3D 视觉技术通过不同数量的相机组成立体视觉系统,如单目 3D 使用一个相机,双目 3D 使用两个相机,多目 3D 使用两个以上相机。这些相机组合可以从不同角度获取图像,通过算法计算出物体的三维信息。
•激光 3D 扫描技术利用激光束对物体进行扫描,测量激光从发射到反射回来的时间,从而计算出物体表面各点的距离,进而构建出 3D 模型。
•结构光 3D 技术则是投影特定的光图案到物体表面,通过分析光图案的变形来获取物体的深度信息。
•TOF 相机技术通过测量光脉冲的往返飞行时间来确定物体与相机之间的距离,从而实现 3D 成像。
2.3D 数据分析算法:对 3D 场景中的信息进行理解,通过滤波、特征提取、分割、语义理解等实现识别、测量、定位和检测等功能。
•滤波可以去除 3D 数据中的噪声,提高数据的质量。
•特征提取是从 3D 数据中提取出具有代表性的特征,如物体的边缘、角点等。
•分割则是将 3D 场景中的物体分割开来,以便进行单独的分析和处理。
•语义理解是对 3D 场景中的物体进行识别和分类,理解其含义和用途。
(二)主流方案
1.结构光:投影特定光图案获取深度信息,适用于近距离、室内环境,精度高但受光照影响大。
1.结构光方案通过投射特定的光图案到物体表面,然后利用相机捕捉反射回来的光图案。根据光图案的变形情况,可以计算出物体表面各点的深度信息。
•这种方案在近距离测量时具有很高的精度,能够准确地获取物体的三维形状。例如,在刷脸支付、刷脸门锁、安防监控、手机前置等功能中,结构光技术被广泛应用。
•然而,结构光方案受光照影响较大,在强光或弱光环境下,测量精度可能会受到影响。
2.ToF(飞行时间法):分为 iToF 和 dToF,前者适用于中短距离,精度较高;后者适用于远距离,响应快但精度稍逊。
•ToF 技术通过测量光脉冲的往返飞行时间来确定物体与相机之间的距离。其中,iToF(间接飞行时间)适用于中短距离的测量,精度较高。它通常被用于 VR/AR、手机前置和后置镜头等场景。
•dToF(直接飞行时间)适用于远距离的测量,响应速度快,但精度稍逊于 iToF。dToF 可以用于手机后置和平板后置等场景。
•虽然 ToF 技术在不同距离范围内具有各自的优势,但较高的工艺难度和成本也限制了其应用的进一步扩大。
3.双目立体视觉:利用双摄像头模仿人眼,通过视差原理计算深度,精度较低,在室外机器人等范畴有所应用。
•双目立体视觉方案利用两个摄像头模仿人眼的工作原理,通过计算两个摄像头拍摄的图像之间的视差来确定物体的深度信息。
•由于双目立体视觉的精度相对较低,它主要应用于室外机器人等对精度要求不是特别高的场景。例如,在一些室外机器人中,双目立体视觉可以帮助机器人识别周围环境,实现避障和导航等功能。
三、3D 视觉技术的应用场景
(一)环境感知与导航
人形机器人通过 3D 视觉技术中的结构光、双目立体视觉、飞行时间(ToF)等方案构建周围环境的 3D 模型,能够准确识别障碍物、行人以及地面纹理等。例如,英特尔的 RealSense 系列传感器为机器人提供深度摄像头、RGB 摄像头以及 IMU 集成的一体化视觉解决方案,其产品被应用于全球范围内包括人形机器人在内的各类机器人设计中,助力机器人进行避障、路径规划与自主导航。
(二)物体识别与抓取
3D 视觉技术可以对目标物体进行精确的 3D 定位与尺寸测量,实现精准抓取、放置或操作。例如,机器人视觉实现 3D 物体抓取和操作时,首先通过摄像头或激光雷达等传感器获取物体的 3D 点云数据,然后使用计算机视觉算法识别出感兴趣的物体,并得到其 3D 位置和姿态信息,最后规划机器人手臂的抓取姿态并执行抓取操作。同时,3D 视觉技术在工业领域也有广泛应用,如基于 3D 视觉的机器人抓取系统可处理无颜色、纹理的物料,应对物料叠放、遮挡以及多种物料混料堆放的情况。
(三)人体交互与行为理解
3D 视觉技术能够识别人体姿态、手势,理解并响应人类的意图,实现自然的人机交互。微软通过 Azure Kinect 深度相机等产品,提供深度感知、骨骼追踪等 3D 视觉技术,与奥比中光等企业合作开发适用于人形机器人的视觉解决方案,使人形机器人可以更好地理解人类的行为和意图,实现更加自然的人机交互。此外,基于 3D 人体姿态估计的人形机器人动作模仿方法及装置,利用彩色深度相机采集彩色图像和深度图像,通过数据预处理、人体肢体动作捕捉、动作行为映射和映射关节角度滤波等步骤,实现人形机器人对示教者手臂动作的模仿。
(四)自我定位与姿态估计
人形机器人通过 3D 视觉技术中的传感器数据校准自身关节位置与姿态,确保动作精准与稳定性。例如,国内外主要人形机器人厂家的视觉方案中,优必选人形机器人 Walker X 采用基于多目视觉传感器的三维立体视觉定位技术,结合奥比中光等公司的 3D 视觉方案,实现精准导航、避障等功能的同时,也能够通过传感器数据校准自身关节位置与姿态。小米 CyberOne 搭载的 Mi-Sense 深度视觉模组由小米设计,欧菲光协同开发,包含 iToF 模组、RGB 模组及可选 IMU 模块,实现高精度 3D 深度信息获取,也有助于机器人进行自我定位与姿态估计。
四、全球 3D 视觉传感器产业参与者
(一)奥比中光
奥比中光作为中国头部企业,在全球 3D 视觉领域处于第一梯队。公司具备从底层到应用层、软硬件一体化的系统级开发设计能力,布局了双目、结构光、iToF、dToF、LiDAR、工业三维测量等六大 3D 技术,不同技术路线间相互借鉴促进,形成了强大的研发创新能力。其产品贯穿产业链上下游,从底层技术到中游环节完整的 3D 视觉方案商及下游各类应用算法,具有明显的先发优势。
奥比中光的产品广泛应用于人形机器人、服务机器人、消费电子等领域。例如,与优必选、小米等机器人企业深度合作,为其提供 3D 视觉传感器方案。公司围绕各类型机器人推出了丰富且全面的机器人视觉感知产品方案,可提供单目 / 双目结构光、激光雷达、iToF 等全技术路线 3D 视觉传感器。人形机器人对 3D 视觉有更直接且必要的需求,奥比中光的 3D 视觉技术已与相关人形机器人客户进行适配。同时,奥比中光表示其 3D 视觉感知技术及 3D 视觉传感器可以满足人形机器人的环境感知需求,视觉能力作为包括人形机器人在内的各类智能终端的 “眼睛”,是智能终端间交互及人机交互中不可或缺的关键一环。
(二)英特尔
英特尔作为全球科技巨头,通过其 RealSense 系列传感器涉足 3D 视觉领域。该系列提供深度摄像头、RGB 摄像头以及 IMU 集成的一体化视觉解决方案,支持多种操作系统,易于集成到各类机器人平台。RealSense SDK 提供丰富的算法支持,如深度感知、面部识别、手势识别、物体追踪等,拥有活跃的开发者社区与大量应用示例。其产品被广泛应用于全球范围内包括人形机器人在内的各类机器人设计中。
(三)索尼
索尼作为图像传感器领域的领军企业,提供用于 3D 视觉的高性能 CMOS 传感器,为全球多家机器人制造商提供视觉硬件基础。例如,在人形机器人的视觉系统中,索尼的 CMOS 传感器能够为机器人提供高质量的图像采集能力,助力机器人更好地感知周围环境。
(四)微软
微软通过 Azure Kinect 深度相机等产品,提供深度感知、骨骼追踪等 3D 视觉技术,与奥比中光等企业合作开发适用于人形机器人的视觉解决方案。例如,微软与奥比中光合作打造的先进 iToF 3D 相机 Femto Bolt 正式在全球范围内上线开售,该相机作为微软推荐的 AKDK 替代产品,在深度模块和性能表现保持一致性的基础上,尺寸更小、画质更高、同步更精准,适用于各种 3D 视觉应用场景。同时,奥比中光将 Femto Mega、Gemini 2 等 3D 相机集成到英伟达新版 NVIDIA Isaac Sim 平台,助力全球超过百万名机器人开发者便捷地开发、测试、仿真机器人 3D 视觉系统,打造出具备更强大能力的机器人。
五、国内外主要人形机器人厂家的视觉方案
(一)国内厂商
1.优必选:优必选人形机器人 Walker X 采用基于多目视觉传感器的三维立体视觉定位技术,结合奥比中光等公司的 3D 视觉方案,在环境感知与导航方面表现出色。通过构建周围环境的 3D 模型,能够准确识别障碍物、行人以及地面纹理等,实现精准导航和避障功能。例如在实际应用中,Walker X 可以在复杂的工厂环境中自如穿梭,为工业生产提供高效的物流搬运和智能操作服务。同时,其视觉定位技术已经达到商用水平,采用 Coarse-to-fine 的多层规划算法,第一视角实景 AR 导航交互及 2.5D 立体避障技术,实现动态场景下全局最优路径自主导航。此外,在 2024 世界机器人大会上,优必选展示的 Walker S 系列人形机器人更是集合了行业先进的工业场景垂域大模型技术、计算机视觉感知、语义 VSLAM 导航、学习型全身运动控制、多模态人机交互、灵巧操作、机器人本体结构设计、高性能一体化关节等人形机器人全栈式技术,能够完成智能搬运、智能分拣、智能质检等多种任务,引领了整个人形机器人行业的商业化应用进程。
2.小米:小米 CyberOne 搭载的 Mi-Sense 深度视觉模组由小米设计,欧菲光协同开发,包含 iToF 模组、RGB 模组及可选 IMU 模块,实现高精度 3D 深度信息获取。该深度视觉模组在测量范围内精度高达 1%,应用场景十分广泛,可通过第三方实验室 IEC 60825 - 1 认证,满足激光安全 Class1 标准。在实际应用中,CyberOne 能够通过自研的 Mi-Sense 深度视觉模组结合 AI 交互算法,不仅拥有完整的三维空间感知能力,更能够实现人物身份识别、手势识别、表情识别等功能,为用户带来更加智能化的交互体验。
(二)国际厂商
1.波士顿动力:Atlas 头部配备 TOF 深度相机,以每秒 15 帧的速度生成环境的点云,用于实时生成环境点云,实现运动规划与避障。Atlas 的感知软件使用多平面分割的算法从点云中提取平面,并为 Atlas 通过相机看到的各种不同对象构建模型。例如在跑酷场景中,Atlas 能够利用深度相机拍摄的点云信息,快速越过具有一定倾斜度的障碍物、执行快速转身、跳跃等动作,展示了接近于人类的跑酷能力。
2.特斯拉:Optimus 机器人的 3D 传感模块以多目视觉为主,结合自家自动驾驶技术,实现高精度空间感知与导航。使用三颗 Autopilot 摄像头作为感知系统,在采集信息后,通过强大的神经网络处理和识别不同任务,依靠其胸腔内部搭载的 FSD 全套计算机完成。例如在训练视觉算法时,采用的数据集来自于特斯拉自动驾驶电动车采集的大量图像信息,这些自动驾驶带来的样本量远大于人工采集的样本量,为其精准的视觉感知和导航能力提供了强大的数据支持。
3.SoftBank Robotics:Pepper 和 Nao 等人形机器人采用多种视觉技术组合,实现环境感知与交互。通过集成多种视觉技术,包括 3D 视觉技术,能够更好地理解周围环境,与人类进行自然的交互。例如在零售、公共服务、健康、养老、教育等场景中,Pepper 和 Nao 可以通过视觉感知技术识别人体姿态、手势,理解并响应人类的意图,为用户提供个性化的服务。
4.本田:Asimo 等机器人则集成了包括 3D 视觉在内的多种传感器,用于环境理解与动作控制。通过多种传感器的协同工作,Asimo 能够更加准确地感知周围环境,实现更加精细的动作控制。例如在实际应用中,Asimo 可以通过 3D 视觉传感器构建周围环境的 3D 模型,结合其他传感器信息,实现精准的行走、跑步、跳跃等动作,以及与人类进行自然的互动。
六、人形机器人视觉方案硬件构成与技术方案
(一)硬件构成
1.3D 视觉传感器:人形机器人所采用的 3D 视觉传感器主要有结构光、ToF、双目立体视觉等类型。其中,结构光传感器通过投影特定的光图案到物体表面,然后分析光图案的变形来获取深度信息,适用于近距离、室内环境,精度较高。ToF 传感器则利用光脉冲的往返飞行时间测量距离,分为 iToF 和 dToF,iToF 适用于中短距离,精度较高;dToF 适用于远距离,响应快但精度稍逊。双目立体视觉传感器利用双摄像头模仿人眼,通过视差原理计算深度,精度较低,在室外机器人等范畴有所应用。
2.RGB 摄像头:人形机器人配备的 RGB 摄像头主要用于捕捉彩色图像,与深度信息结合后,能够为机器人提供丰富的视觉细节。例如,奥比中光的 3D 视觉传感器中就包含 RGB 模组,与激光发射模组、IR 成像模组等组件共同为机器人提供精准的视觉信息。
3.IMU(可选):IMU 为惯性测量单元,在人形机器人中为可选组件。它能够提供姿态信息,辅助视觉系统在快速运动或光照变化时保持稳定性。例如,小米 CyberOne 搭载的 Mi-Sense 深度视觉模组中就包含可选的 IMU 模块,有助于机器人在各种环境下实现高精度的 3D 深度信息获取。
4.光源:光源在人形机器人的视觉系统中起着重要作用,它为结构光或 ToF 等技术提供必要的投射光源。常见的光源有激光投影器、LED 阵列等。例如,在结构光传感器中,激光投影器可以投射特定的光图案到物体表面,以便传感器获取深度信息。
5.图像处理单元:人形机器人的图像处理单元通常由 FPGA、GPU 等组成,能够对原始图像数据进行实时处理,生成可供机器人决策的视觉信息。例如,英特尔的 RealSense 系列传感器提供的一体化视觉解决方案中,就包含强大的图像处理能力,能够支持多种算法,如深度感知、面部识别、手势识别、物体追踪等。
6.连接与接口:人形机器人的视觉系统通过 USB、Ethernet、MIPI 等连接与接口将视觉数据传输至机器人主控系统,实现信息的快速传递和交互。
(二)技术方案
1.结构光方案:结构光方案通过投影特定图案并分析其在物体表面的变形来获取深度信息。其特点是在近距离、室内环境下精度高,但受光照影响较大。例如,在刷脸支付、刷脸门锁、安防监控、手机前置等功能中,结构光技术被广泛应用。在人形机器人中,结构光方案可以帮助机器人在近距离内准确识别物体的形状和位置,实现精准抓取、放置或操作等功能。但在强光或弱光环境下,结构光方案的测量精度可能会受到影响,需要结合其他传感器或技术来提高系统的稳定性和可靠性。
2.ToF 方案:
•iToF 和 dToF 的区别:iToF 是指时间往返行程采用时间选通光子计数器或电荷积分器外推获得而不需要精准计时的方案,适用于中短距离,精度较高。dToF 是直接飞行时间方案,适用于远距离,响应快但精度稍逊于 iToF。例如,在手机前置和后置镜头等场景中,iToF 常用于中短距离的测量,精度高、分辨率尚可;而在手机后置和平板后置等场景中,dToF 可用于远距离的测量。
•应用:在人形机器人中,iToF 和 dToF 都有各自的应用场景。例如,波士顿动力的 Atlas 头部配备的 TOF 深度相机可能采用了 iToF 或 dToF 技术,用于实时生成环境点云,实现运动规划与避障。特斯拉的 Optimus 机器人的 3D 传感模块以多目视觉为主,结合自家自动驾驶技术,可能也会用到 iToF 或 dToF 技术来实现高精度空间感知与导航。
七、3D 视觉技术在人形机器人领域的未来前景
(一)从可选到必选
随着人形机器人和混合现实(MR)技术的兴起,3D 视觉传感器正逐渐从可选配件转变为必选配置。当前,大多数服务型机器人通常配备 2-4 台传感器,而人形机器人由于对精度的要求更高,3D 视觉有望成为其标配。例如,奥比中光作为国内首批消费级 3D 视觉厂商,已和英伟达、微软、蚂蚁、银联、OPPO、优必选、斯坦德、创想三维等各行业头部企业达成合作,其 3D 视觉感知技术及 3D 视觉传感器可以满足人形机器人的环境感知需求。
(二)市场潜力巨大
根据多方测算,人形机器人和消费电子行业中 3D 视觉传感器的潜在市场前景广阔。2030 年人形机器人行业 3D 视觉传感器的潜在市场在保守、中性、乐观情况下分别为 177 亿元、610 亿元、2136 亿元。在消费电子行业,2027 年 3D 视觉传感器的潜在市场在保守、中性、乐观情况下分别为 181 亿元、352 亿元、901 亿元。
人形机器人的发展将推动 3D 视觉传感器市场的快速增长。例如,在国内商用服务机器人领域,奥比中光已实现领先地位,市占率达 70%+。此外,公司还与英伟达合作打造 3D 开发套件,覆盖百万名潜在机器人开发者。随着人形机器人应用场景的不断拓展和复杂化,对 3D 视觉传感器的需求将持续增加。
在消费电子领域,Vision Pro 通过配置多个 3D 传感器(dToF、结构光)实现了 3D 空间中的人机交互,为空间计算设备打造了样板。奥比中光有望凭借此前与 OPPO、魅族等企业的合作获得卡位优势。
综上所述,3D 视觉技术在人形机器人领域具有广阔的未来前景,从可选到必选的转变以及巨大的市场潜力将推动该技术的不断发展和创新。
八、案例分析
(一)伟景智能
伟景智能近期推出了专业面向人形机器人设计的视觉感知传感器 ViEye。这款传感器采用的 “基于自动机器学习的立体视觉智能认知技术” 更接近人和机器人的自然认知能力,在物体定位、识别、测量等方面具有显著优势。
ViEye 的技术特点如下:
1.结构紧凑,专为人形机器人设计:人形机器人架构紧凑,对模块系统机械结构要求高。ViEye 采用小型化设计,双目相机瞳距可达到 10cm 以下,能顺利集成到人形机器人头部等位置。其自定义瞳距、工作距离等参数的特性,提高了与不同机器人设计的匹配能力。
2.不惧强光和反光,高清成像:采用主动双目视觉原理,能更准确、细致地提取立体数据特征点。具备高分辨率和高帧率的数据,在各种光照条件下都能实现高清成像,即使在 180000Lux 的强光场景或物体存在反光、抛光及吸光现象时,仍能保持物体数据的完整性。
3.前端智能,满足快速处理需求:能够自主完成物体识别、体积测量、缺陷检测、路径规划等多项功能,有效为机器人本体节省资源。
伟景智能的人形机器人及采摘机器人在多个领域有着广泛应用。ViHero 是一款专业级人形智能服务机器人,融合了多项智能技术,不仅适用于迎宾、讲解和训练等场景,还能进入社区和家庭,辅助老人起居和陪伴儿童学习等。未来,伟景智能将持续深入研究和开发算法、软件,提升人形机器人的视觉伺服精度和可靠性,增强机器臂和机器手的灵活性,引入大语言模型提高交互体验,推动下一代 ViHero 的真正商业化落地。
(二)迈尔微视
迈尔微视为威宝人形机器人提供 T 系列、S 系列和 H 系列传感器,分别实现路径规划、智能避障和精准抓取功能。
1.T 系列:视觉 SLAM 方案为路径规划提供精准支持。T 系列传感器能够实时构建环境地图,并支持最远 30 米的感知距离,确保机器人即便在大型仓库和车间中,也能进行精确的路径规划和动态避障。其亮点包括实时定位与建图、30 米远程感知以及灵活应对动态场景。
2.S 系列:智能避障方案保障安全协作。S 系列 RGB-D 避障传感器为威宝人形机器人提供全面的 3D 环境感知与智能避障支持。它不仅支持语义识别算法,让机器人能够判断障碍物类别并做出智能决策,还集成了 I/O 通讯功能,让机器人在检测到障碍物时,能立即通过 I/O 端口向控制系统发送减速或停障指令。其亮点有语义识别与智能规避、多模态感知与抗干扰设计以及 I/O 通讯与自定义避障区域。
3.H 系列:精准抓取方案提升物料处理能力。H 系列结构光传感器的高精度 3D 感知能力让威宝机器人在执行物料抓取与操作任务时更加精准。支持亚毫米级 3D 定位,即使在光照复杂的环境中,也能稳定运行,为机器人提供可靠支持。其亮点为亚毫米级精度、复杂物体识别和抗光干扰。
此外,迈尔微视正在研发的 20 米 dToF 避障方案将进一步拓展机器人应用场景。dToF 传感器在感知距离、抗干扰能力与功耗方面都实现了显著提升,使机器人在大型仓储、开放式工厂以及室外场景中的应用更加自如,同时低功耗设计将延长设备的续航时间,并在多机器人协作时提供更快响应。