全球首个在自动驾驶汽车传感器上运行的2D/3D感知系统问世
AEye的感知系统是第一个在传感器中融合2D和3D感知的系统,可以在速度和范围上提供空前的分类
这种传感器感知系统旨在在人类参与的所有SAE级别上提高车辆自主功能的可用性,从而使汽车制造商能够针对任何所需用例(包括最具挑战性的极端情况)实现适当的自主性,为ADAS、移动性和邻近市场提供“按需”自治。
AEye的成就是其灵活的iDAR?平台,该平台可实现智能和自适应感应。iDAR平台基于仿生技术,通过灵活的激光雷达、融合摄像头和人工智能的组合,复制了人类视觉的优雅感知设计。这是第一个采用融合感知方法的系统——利用iDAR独特的动态体素,它将传感器内部的2D摄像机数据(像素)和3D激光雷达数据(体素)结合在一起。这种独特的软件可定义感知平台允许不同的传感器模式相互补充,使摄像机和激光雷达协同工作,使每个传感器更强大,同时提供“信息冗余”,确保功能安全的系统。
AEye的方法解决了自动化行业在以速度和距离传递感知方面面临的最大挑战之一:提高检测和分类的可靠性,同时扩大对象的检测、分类和跟踪范围。越早对目标进行分类并准确预测其轨迹,车辆就越需要及时刹车、转向或加速以避免碰撞。
“按需”实现自治
第一代机器人视觉系统试图通过捕获尽可能多的数据来解决全自动驾驶的挑战,而这需要时间和力量来处理。第二代机器人视觉系统旨在智能地收集、管理数据并将其转换为可操作的信息。
iDAR平台独特的智能功能可用于ADAS安全增强、选择性自主(高速公路车道变更)、闭环地理围栏或开环场景中的完全自动化用例等各种应用。
工程师现在可以使用软件可定义的传感器进行实验,而无需等待数年即可使用下一代硬件。他们可以在不到一秒钟的时间内调整射击模式,并模拟冲击以找到最佳性能;他们还可以通过模块化设计来定制功能或电源使用情况,例如使用较小的激光器和利用无相机来创建低于1000美元的专用ADAS系统;或者将短距离和远程激光雷达摄像头和雷达混合搭配,以用于更先进的360度系统,其成本不到15,000美元。与行业的前几代传感器不同,OEM和Tier 1s现在也可以在适当的时候将算法转移到传感器中。
AEye总裁Blair LaCorte表示:“我们相信iDAR平台的功能和智能将改变企业围绕自主性创建和发展业务模型的方式,而不必等到完整的5级Robotaxis系统的创建。汽车制造商现在将自主性视为一个连续体,并已确定在整个连续体中利用技术的机会。随着资产变得更加智能,OEM可以决定何时升级和利用这种智能,提供软件可定义和模块化硬件平台的技术公司现在可以支持这一汽车行业趋势。”
iDAR的2D / 3D感知系统
AEye的系统更快速、更准确地搜索、检测和分割对象,并在获取特定对象时使用速度和方向信息验证该分类。这使系统能够预测对象的行为,包括推断意图。通过提供智能以更快地捕获更好的信息,该系统能够实现更准确、及时、可靠的感知,比传统的感知解决方案使用的功率要少得多。
此2D / 3D感知系统基于AEye的iDAR平台,该公司将通过软件参考库广泛提供其感知进步。该参考库包含以下功能,这些功能将驻留在AEye的AE110(移动性)和AE200传感器(ADAS)中:
检测:识别3D点云和摄像机中的对象(例如汽车、行人等)。该系统可以精确地估计物体的质心、宽度、高度和深度,从而生成物体的3D边界框。
分类:对检测到的对象类型进行分类。这有助于进一步了解这些物体的运动特性。
分割:进一步对场景中的每个点进行分类,以识别这些点所属的特定对象。这对于准确识别更精细的细节尤其重要,例如道路上的车道分隔线标记。
跟踪:通过空间和时间跟踪物体。这有助于跟踪可能与车辆路径相交的对象。
范围、方向:确定对象相对于车辆的位置,以及对象相对于车辆的方向。这有助于车辆将周围的场景关联起来。
真实速度:利用灵活的激光雷达的优势来捕获物体相对于车辆的运动速度和方向。这为运动预测提供了基础。
运动预测:预测物体在将来不同时间的位置。这有助于车辆评估发生碰撞的风险并制定包车安全路线。
Navigant Research的首席分析师Sam Abuelsamid说:“将能够实时测量速度、距离、方向和语义理解的传感器模式结合起来,可以实现更强大的虚拟驾驶系统。与基于2D图像的系统相比,在传感器级别上创建感知系统可以潜在地提供更多的深度、细微差别和关键信息,以提高预测的准确性,从而将其输入到路径规划系统中,这将是ADAS和自动驾驶汽车计划的福音。”
微信扫描二维码,关注公众号。