成员自1984年以来

了解更多

AIA - Advancing Vision + Imaging已转型为推进自动化协会(Association for Advancing Automation),是全球领先的视觉+成像、机器人、运动控制和工业AI行业自动化行业协会。

下内容提交:

工业:
N / A.

应用程序:
仿真/ 3 d建模仿真/ 3 d建模

数据融合帮助自主平台更高效地制作3D地图

发布04/30/2018

作者:Winn Hardin, AIA特约编辑

无论是设计自动驾驶汽车、移动机器人、无人机,还是未来的无人驾驶飞机,开发人员都必须使用多个传感器在三维空间中对车辆进行定位。根据系统的不同,可以使用不同类型的图像传感器来完成这一任务。例如,自动驾驶汽车可以使用激光雷达生成周围区域的三维点云。虽然激光雷达系统的数据对远距离来说是准确的,但这些数据

图1:来自Inertial Sense的INS-2µins比美国的1 / 4小,使用传感器数据和GPS数据来提供位置估计。
图1:来自Inertial Sense的INS-2µins比美国的1 / 4小,使用传感器数据和GPS数据来提供位置估计。

生成是稀疏的,通常需要使用传统的互补机器视觉解决方案来实现近距离感知和安全。

LIDAR传感器可用于在3D或2D中映射环境,具体取决于系统的应用要求。来自Velodyne LIDAR的HDL-64E提供3D 360°水平和26.9°垂直视野(FOV),而SINM571 LIDAR扫描范围取景器提供2D 220°FOV。

2D激光扫描仪通常与摄像机系统结合使用,以定位目标及其在自动车辆视场内的距离。对于这些应用程序,不同类型的相机系统可以包括单(单声道)相机,立体相机,或捕捉RGB和深度(RGB- d)图像的相机。如果使用单相机系统,则必须基于相机的运动来计算3D图像,与此运动相关的任何错误都将对生成的3D图像产生不利影响。

RGB- d传感器包括RGB相机和红外结构光投射器和传感器。例如,Occipital的结构传感器与iPad等便携式平板电脑一起操作,处理RGB图像采集,而附件提供了结构光保护器,用于捕获深度信息。

或者,预校准的立体声相机,如Flir Systems,Inc。的大黄蜂提供了类似的能力。通过识别左图像和右图像的特征之间的差异,立体视觉摄像机确定深度。虽然立体声相机产生短距离的密集数据集,但它们通常缺乏范围。结果,许多3D映射系统使用LIDAR和立体视觉成像系统来获得更准确的数据。


用于自动驾驶汽车的多个传感器
为了估计车辆、机器人或无人机在太空中的位置,设计师通常依赖分层传感网络,其中不仅包括机器视觉和激光雷达。设计人员通常使用加速度计、陀螺仪、磁力计和车载惯性测量单元(imu)的组合来测量加速度和角速度。当然,这些“航迹推算”系统需要知道起点和绝对位置,才能安全地保持在轨道上。在许多设计中,使用精度约为5米的全球定位系统(GPS)或使用固定地基参考站将精度提高到约10厘米的差分GPS来实现。

图2:在挪威生物经济研究所,同步定位和测绘(SLAM)算法使用3D点云形式的地图对林业车辆进行定位,并测量树干直径和单树坐标等属性。
图2:在挪威生物经济研究所,同步定位和测绘(SLAM)算法使用3D点云形式的地图对林业车辆进行定位,并测量树干直径和单树坐标等属性。

由于使用微机电系统(MEMS)技术,这些IMU / GPS系统的大小急剧下降,使它们在自动飞机的设计中有用。例如,惯性感测的μINS-2小于U.S.季度,并使用传感器数据和GPS数据来提供位置估计(图1)。

在诸如移动机器人和汽车的地面自治车辆中,来自IMU的数据可以与来自车轮编码器的数据一起使用以确定车辆的位置。


灌篮高手
在将已知位置与运动跟踪相结合,实现从沙漠到仓库内部各种环境的自主导航的过程中,车辆必须构建环境地图,同时在地图中定位车辆。为此,它们必须执行同步定位和映射(SLAM)。

SLAM首先从二维或三维激光雷达、声纳或三维摄像机系统生成的点云数据中提取地标或特征,然后通过匹配来自不同传感器网络的数据确定特征位置。然后,SLAM导航系统利用GPS、里程表和/或INS数据更新车辆的当前位置,然后根据移动平台的当前位置估计未来路标的位置。

如今,许多应用程序都在使用SLAM或其变体来绘制环境。例如,用于生成森林当地地图的移动机器人、用于材料处理应用的自主移动机器人(AMRs)以及用于环境意识的无人机。

地图应用比比皆是
在开发一种测量树干直径的移动机器人时,Marek Pierzcha?挪威生物经济研究所的a教授和他的

图3:Fetch Robotics的Freight机器人使用激光雷达扫描测距仪、IMU和车轮编码器生成一个基于web的GUI,以限制机器人的运动并定义充电站的位置。
图3:Fetch Robotics的Freight机器人使用激光雷达扫描测距仪、IMU和车轮编码器生成一个基于web的GUI,以限制机器人的运动并定义充电站的位置。

他的同事开发了一个移动平台,该平台结合了许多传感器,可以对森林进行自动3D测绘。其中包括Velodyne VLP-16激光雷达,FLIR大黄蜂立体视觉摄像机,以记录立体图像,机载IMU和GPS接口到

Pixhawk单片机供全局参考。

该系统采用Ubuntu 14.04下运行的机器人操作系统,生成三维点云形式的地图,然后利用SLAM算法对森林车辆进行定位。点云还计算诸如树干直径和单树坐标等属性(图2)。

同时,Fetch Robotics在仓储和物流内部应用中使用amr。在过去,安装自动引导车辆是时间

由于需要在仓库地板上安装专用轨道,以便这些车辆跟踪,所以消耗和昂贵。现在,不需要专用路径的amr可以自动生成仓库地图。

图4:一个250米无人机轨迹(红色)通过森林的自上而下视图,3D地图覆盖在由直接稀疏里程计SLAM生成的灰点上。

图4:一个250米无人机轨迹(红色)通过森林的自上而下视图,3D地图覆盖在由直接稀疏里程计SLAM生成的灰点上。

为实现这一目标,获取机器人的货运机器人使用Sick的TIM571 LIDAR扫描范围查找器,使用飞行时间测量来定位高达25米的物体。极地位置坐标和LIDAR的距离和角度被传送到系统的主机CPU并与IMU的数据组合以生成2D地图。货运机器人还采用了来自Primesense的Carmine 1.09短程3D相机传感器,以允许LIDAR的FOV上方和下方的可视化。然后可以通过将数据组合从其轮式编码器,IMU和LIDAR组合来进行机器人周围环境的地图。一旦生成,可以使用基于Web的GUI来限制机器人的运动并定义充电站的位置(图3)。

为了进一步说明公司是如何使用分层传感系统进行3D自主导航的,NVIDIA的Nikolai Smolyanskiy和他的同事展示了该技术是如何被用于开发一种微型飞行器系统,用于在森林等非结构化户外环境中自动跟踪路径。3D Robotics公司的3DR Iris+ Quadcopter配备了Pixhawk模块和NVIDIA Jetson TX1嵌入式超级计算机,安装在Auvidea公司的J120载波板上,该系统采用了一个基于微软HD Lifecam HD5000 USB摄像头的视觉系统,以及Pixhawk的PX4FLOW光学流量传感器和Garmin的Lidar Lite V3光学距离测量传感器。(图4)。

虽然自动驾驶汽车在3D绘图方面得到的宣传最多,但其他应用程序也在农业、林业和仓库绘图等不同领域使用同样的技术。该技术还被用于绘制海底地图,测量鱼群数量,并实现远程水下航行器导航。随着3D地图应用的增多,视觉和成像公司的机会也在增加。

嵌入式视觉此内容是嵌入式视觉策划集合的一部分。要了解有关嵌入式愿景的更多信息,点击这里