成员自1984年以来

了解更多

AIA - 推进的视觉+成像已转变为促进自动化协会,愿景+成像,机器人,运动控制和工业AI产业的领先全球自动化贸易协会。

内容提交:

工业:
N/A

应用程序:
N/A

视觉导航道路上的障碍自动驾驶车辆

发表于10/04/2019.

作者:Dan McCarthy,特约编辑

由英伟达

众所周知,我们人类不善于客观地判断自己的能力。对高中生的调查发现,只有1%的人认为自己的社交能力低于平均水平。另一项针对大学教授的研究发现,超过90%的教授认为自己高于平均水平。和汽车司机吗?然而,另一项调查显示,88%的美国司机认为他们的驾驶能力高于正常水平。

考虑到这些统计数据显示的平均预测水平,2010年代初的媒体头条预测到2018年无人驾驶汽车将无所不在,这应该不会让人感到惊讶。但如果2018年美国发生的4万起汽车死亡事故说明了一件事,那就是大多数司机都可以受益于车辆上更多的视觉技术和人工智能(AI)。

安全自动化
美国国家公路交通安全管理局(National Highway Traffic Safety Administration)估计,94%的交通事故应归咎于人为失误,而不是技术或驾驶条件。原因包括分心驾驶、嗜睡、超速和酒精损害。因此,越来越多的新车加入了一些先进的驾驶辅助系统(ADAS),如倒车辅助摄像头、自动紧急制动和盲点监控。即将推出的车型将增加传感器阵列,以收集车辆周围环境或驾驶员状态的数据,以提高道路安全。基于光学和红外摄像机的视觉系统,以及光探测和测距(LIDAR)和雷达传感器,通常是这种组合的一部分。

汽车工程师J3016标准的社会识别六个级别的车辆自动化,从L0(无自动化)到L5(完全自主)。L3标记临界边界,其中车辆从辅助驾驶员接管车轮的控制 - 尽管在有限的条件下。去年,奥迪的A8轿车成为第一系列生产车,可以融入一个L3 ADAS,AI交通堵塞飞行员。The system is based on Delphi’s zFas control unit, which compiles data from LIDAR and a front-facing camera operating at 18 frames per second (fps) to handle start-up, acceleration, steering, braking, and even timely reaction to vehicles cutting in front of the car — all without driver input.

虽然奥迪A8是一项令人印象深刻的成就,但其他L3型号仍然在设计板或测试过程中。一些汽车制造商,包括福特,戴姆勒和宝马,实际上旨在跨越L3自动化并在20世纪20年代初期推出L4车辆。L4系统仅在未映射的区域或恶劣天气下使自动操作更加常规和手动控制到驾驶员。许多行业分析师谨慎接受了这些乐观预测,现在预测,我们将看到大量汽车 - 大多数奢侈品模型或商用车 - 20世纪20年代初,L4容量。

一些谨慎的建议
然而,分析师是谨慎的。除了导航新出现的法规和责任担忧之外,自治车辆的设计人员还在面临技术障碍。但视觉技术是他们最不担心的。无论是相机模块还是嵌入式解决方案的一部分,图像传感器,处理芯片,电缆和镜头模块都是杠杆的都是熟悉的工具,需要对象检测的相对简单的计算。例如,在由德州仪器制定的一个场景中,例如,具有43°视野(FOV)和1百万像素(MP)分辨率的1/3英寸CMOS传感器可以在最大34米处检测行人。插入8MM成像芯片增加了检测距离至101米。

FLIR Systems公司称,热成像仪可以进一步扩大行人和动物的探测范围,其距离是光学相机的四倍,尽管这种能力部分依赖于缩小相机的视场。水平视场为50°的FLIR ADK相机的探测距离为67米。将视场缩小到18°将探测距离扩大到186米。

然而,探测距离只是等式的一半。以每小时40英里的速度行驶的普通轿车的典型停车距离为36米。根据上面描述的1-MP传感器场景,车辆在到达检测到的行人位置之前没有时间停下来。调整像素大小、处理能力和镜头参数都有助于延长100万像素传感器的检测距离,而使用800万像素传感器可能会使车辆即使以70英里/小时的速度行驶,也能留出几米的停车距离。

相机帧速率也是阻止距离的因素。根据另一个德州仪器场景,捕获10个FP的相机是足以使ADA能够将车辆每小时80公里行驶到55米的完全停止。将帧率提高到30 FPS将使ADA能够以45米处的45米停止汽车。

如果ADAS设计所需的计算相机检测距离和帧速率,则自动车辆可能在2018年之前一直在路上。但最具挑战性的技术障碍涉及从多个和不同传感器的处理和融合数据并通过AI汇集它算法足以使ADA能够在不可预测的环境中进行及时反应。

据英伟达称,一辆装有10个高分辨率摄像头的汽车每秒能产生20亿像素的数据。通过多个深度神经网络(DNNs)处理这些数据需要机载计算机每秒执行约250兆(万亿)次操作(TOPS)。然而,车载ADAS传感器的数量和类型都在不断增长,由此产生的决策树远比工厂视觉应用所需的决策树复杂和可变。

英伟达(NVIDIA)汽车部门高级主管丹尼•夏皮罗(Danny Shapiro)表示:“业界已经认识到,计算的复杂性超出了最初的预期。”“软件的复杂性不断增长,因此,我们已经发布了多达320个TOPS的产品。然而,我们的客户想要的更多,因为需要所有这些不同的深度神经网络,以确保居住者和其他道路用户的安全。”

最糟糕的公路旅行
自动驾驶汽车的最大障碍可能与硬件或软件无关,而是与人类大脑的“湿件”有关。去年接受美国汽车协会(American Automobile Association)调查的美国司机中,有近75%的人表示,他们会害怕乘坐全自动驾驶汽车。

收集自动驾驶汽车的安全数据显然是改变人们的方式。但如何?兰德公司(Rand Corporation)的一项研究显示,要想与人类驾驶的汽车相提并论,自动驾驶汽车需要积累数亿甚至数十亿的道路里程。

幸运的是,数字传感器和计算技术在自动化基础上的一个好处是它们能够很容易地在模拟中进行测试。ADAS的传感器、处理器和控制软件“看到”的一切都可以虚拟制造和操作,以测试系统在最恶劣环境下的反应。

例如,NVIDIA的驱动星座系统在两个服务器上运行。The first feeds photorealistic simulation data directly to a self-driving vehicle’s camera, lidar, and radar sensors to create a wide range of testing environments and scenarios, including different weather and road conditions, day or nighttime operation, and even heavy traffic or an animal darting in front of the car. The second server contains NVIDIA’s powerful DRIVE AGX Pegasus AI car computer — the 320 TOPS product that Shapiro referenced — and processes simulated data as if it were coming from the sensors of an actual car on the road. Combined, DRIVE Constellation’s two servers create a hardware-in-the-loop system that tests driving scenarios at a significantly accelerated rate.

“当你在现实世界中测试时,你面临的挑战是,大多数里程都是无聊的。什么也没发生,”夏皮罗说。“在模拟中,你可以通过危险场景和挑战性条件的数据库来运行系统。另外,这些测试是可重复的。最后,它们还可以在模拟器中加入人在回路的驾驶员或人工智能代理。”

同样重要的是,模拟允许自动驾驶数据在可重复的情况下进行汇编,这对于确认自动驾驶汽车的设计正在不断改进至关重要。

从愿景供应商的角度来看,ADAS和自动驾驶汽车这次与其说是挑战,不如说是机遇。是的,相机传感器、模块和连接器需要加固、节能、低成本,并优化速度。但是,道路的需求并不需要先进的成像设备,也不需要对芯片或图像处理器进行大规模的重新设计。将自动驾驶汽车推向市场的最后一英里的大部分技术进步,都将解决如何更快、更经济地融合、处理和分析传感器数据的问题。模拟硬件在环测试也将是关键的一步。好消息是,几家汽车制造商已经在模拟、封闭赛道和城市街道上测试了下一代ADAS系统。关于L4自动驾驶汽车将在2020年代早期在街道和高速公路上行驶的预测似乎越来越现实,而不是乐观。