成员自1984年以来

了解更多

AIA - 推进的视觉+成像已转变为促进自动化协会,愿景+成像,机器人,运动控制和工业AI产业的领先全球自动化贸易协会。

内容提交:

工业:
N / A.

应用程序:
自主移动性自主移动性

视觉系统巡航到自动车辆

发布04/24/2018

 | By: Winn Hardin, Contributing Editor

虽然在消费者可以购买自动车辆之前还有几年,但汽车制造商已经在证明没有人为干预的情况下能够导航的车辆。就像盲点监测,前进碰撞警告和车道出发警告系统已经出现在最新一代的车辆中,将保留完全自治车辆的承诺。

根据国家公路交通安全管理局(nhtsa.),即无需人工驾驶、独立操作的自动驾驶汽车,将取代那些任何时候都需要完全投入驾驶的汽车。通过2016年SAE国际标准J3016的采用,NHTSA验证了SAE的6级自动/自动驾驶(表1)。

表1:2016年,NHTSA采用SAE International的J3016标准,验证了SAE的6级自动/自动驾驶。(SAE国际公司提供)

“虽然没有汽车制造商在生产中实现了3级或更高水平,但是一些已经生产了示范车,”STMicroelectronics技术营销经理Uwe Voelzke说。“一些国家正在开展3级车辆的录取。这是预计在2020/2011年。“无论时间框架,似乎还需要多种类型的不同传感器来实现全自动车辆的承诺。在自动驾驶汽车,摄像机,雷达,声纳,全球定位系统(GPS)和光检测和测距(LIDAR)中会产生巨大的数据。

“摄像头将产生20至60兆字节,雷达将产生10千字节以上,声纳将产生10至100千字节。GPS的运行速度为50kb,激光雷达的运行速度在10mb到70mb之间。因此,每辆自动驾驶汽车每天将产生大约4tb的数据,”英特尔首席执行官布莱恩·科再奇说。与用于捕获该数据的系统一样重要的是处理和从数据中提取信息所需的计算基础设施。

传感器类型
“今天,大多数先进的驾驶员援助系统[ADAS]独立运作,难以交换信息。Rearview摄像机,环绕声系统,雷达和前置摄像头都有个人用途,“德克萨斯乐器汽车ADAS部门总经理Hannes Estl说。虽然每个传感器类型都有自己的限制,但系统使用数据融合(组合来自多个传感器的信息),以产生更准确的环境表示(图1)。

图1:虽然每种传感器类型都有其自身的局限性,但系统使用数据融合(结合来自多个传感器的信息)来生成更准确的环境表示。(德克萨斯仪器公司提供)

当然,每种传感器类型的加工要求是多样的。正如机器视觉系统中使用的智能摄像机执行平场校正和拜耳插值等低级图像处理任务一样,汽车应用中使用的摄像机也执行异构处理。虽然摄像机和雷达、声纳、GPS和激光雷达系统都可以执行各自特定的低级处理功能,但融合生成的数据将需要更复杂的算法。

英伟达(NVIDIA)创始人兼首席执行官黄延森(Jensen Huang)表示:“汽车、出租车和卡车运输代表着一个价值10万亿美元的市场。难怪相机和传感器公司都在讨好大型汽车制造商,经常宣传他们在自动驾驶汽车设计方面的成功。例如,VisLab的研究人员为一辆名为BRAiVE的原型车配备了四个激光扫描仪、一个GPS和一个惯性测量单元(IMU)。

图2:在由Vislab开发的原型自主车辆中,来自FLIR集成的成像解决方案的摄像机辅助前障碍物检测,交叉点估计,停车空间检测,盲点监测和后障碍物检测。Flir的礼貌为了进行前方障碍物/车辆检测、车道检测和交通标志识别,FLIR集成成像解决方案的四个Dragonfly2摄像头安装在挡风玻璃上方的后面。两个有颜色传感器,两个有灰度传感器。另外两个Dragonfly2摄像头安装在车身后面,用于侧视停车和交通路口检测。另外两个Firefly摄像头集成到后视镜中,用于检测超车车辆,另外两个Dragonfly2摄像头监控附近的障碍物(图2)。

FLIR认识到ADAS中采用的不同技术为实现4级和5级能力提供了更好的手段,因此FLIR还提供了基于玻色子热成像核心的摄像机。该系统允许在黑暗、雾、眩光和烟雾中识别物体。

像Flir一样,远见的自治控股看到了相结合的可见,立体声和红外(IR)成像的值。在1月份的内华达州拉斯维加斯的今年消费电子展(CES),展示了其Quadsight Vision系统。该系统使用两对立体IR和可见摄像头,以实现接近100%的障碍物检测,在照明条件下具有接近零的误报,如完整的黑暗,雨,雾霾,雾和眩光。

图3:在CES上,与会者有机会乘坐制造商NAVYA所称的首款自动化生产出租车。该公司的AUTONOM CAB在展会期间运送了600多人。激光雷达和雷达
CES的与会者还有机会乘坐Maker Navya在市场上推出的第一个Robotized生产驾驶室。该公司的Autonat Cab(图3)在演出周围运送了600多人。该车辆包括不少于10个激光器传感器,六个摄像头,四个雷达,两个全球导航卫星系统天线和一个IMU。

虽然来自Velodyne的VLP Lidars提供360度的周边视觉,但来自Valeo的Scala Lidars可用于高达200米的距离。利用多个传感器,在系统中的所有功能中提供至少三倍冗余。

由于它们在不同的环境条件下的鲁棒性,如雨,灰尘和阳光,短,中等和远程雷达模块对完全自主驱动来说也是至关重要的。“雷达传感器可归类为短程雷达,0.2至30米的范围;30至80米范围内的中等范围雷达;和80米至200米的远程雷达,Ali Osman Ors,Ali Osman Ors,R&D主任,用于在NXP半导体的处理器。

“远程雷达[LRR]是在自适应巡航控制中使用的事实传感器[ACC]和公路自动应急制动系统[AEBS]。目前部署的系统仅使用用于ACC和AEB的LRR具有局限性,例如检测摩托车,并且可以与相机传感器配对以提供额外的检测上下文,“ORS说。为了满足这些需求,恩智浦提供了一系列雷达传感和加工,视觉处理和ADAS市场的传感器融合产品。

多样性和冗余
“多样性和冗余”是当时NVIDIA的Jensen Huang谈到该公司在今年CES中自动车辆技术的最新成果的主要主题。Huang unveiled the company’s DRIVE Xavier autonomous machine processor system-on-a-chip, comprising a custom eight-core CPU, a 512-core Volta GPU, a deep-learning accelerator, computer vision accelerators, and high dynamic range (HDR) video processors, which he said could help autonomous vehicles reach level 4. “However, for the Level 5 market,” says Huang, “we have created the NVIDIA DRIVE Pegasus robotaxi AI computer, which is powered by two such processors.”

NVIDIA Drive Platform相结合深度学习,传感器融合和环绕声,设计围绕冗余系统架构,建立了支持ASIL D,是汽车功能安全的最高水平。

“但处理器只是第一步,”黄说。“我们一直在建立整个软件堆栈。”迄今为止,该公司拥有DROVEWWORDS SDK,其中包含用于检测,本地化,规划和可视化的参考应用程序,工具和库模块。该公司目前正在构建地图感知组件,为自主驾驶创建可扩展的人群映射平台。它将启用一支自动车辆的舰队来协作创建和消耗地图数据。

据黄说,百度和采埃孚已经选择了英伟达Drive Xavier在中国进行产品开发,英伟达和优步技术将合作打造无人驾驶的优步。

为了确保自主汽车功能即使检测到故障,公司也创建了ISO 26262 ASIL D安全兼容的NVIDIA驱动功能架构,其涵盖了所使用的过程,处理器设计,算法,系统设计和验证方法。“如此复杂的是,”黄说:“那些建造飞机的人开始敲门!”

理解,模拟自主车辆遇到的每种可能的环境都是不可能的,公司还开发了一种仿真环境,允许设计师在汽车虚拟设计上移动相机,然后在这种环境中模拟照明和道路状况(图4)。

每年汽车事故造成的八百百万汽车事故及大约一百万个死亡人数为5000亿美元。随着每辆车的5级ADAS的出现,理论上可以消除这个数字,同时提供了更少的交通拥堵和降低运输成本的额外好处。

生命科学的愿景此内容是“生命科学展望”策展收藏的一部分。欲知更多有关生命科学的愿景,点击这里