智能网联汽车如何感知环境?

近日,上海这座至少有着700多年历史的城市再次成为了新时代的聚焦点。这次不是因为上海的外滩、东方明珠广播电视塔,也不是因为蟹壳黄、奉贤海棠糕,而是因为它成为了继北京之后,我国第二个出台自动驾驶相关路测规章的城市。上汽、蔚来成功拿到上海智能网联汽车测试号牌。智能汽车的热浪也再次掀起。

在上一期的车百科中,+记者通过三问梳理了智能网联汽车的基础概念、产业状态、政策状态。然而要探索智能网联汽车这个交叉学科的概念,这还是远远不够的。单纯从概念的层面,智能网联汽车与智能汽车、无人驾驶汽车、智能交通系统、车联网有着千丝万缕的联系,而且这些概念之间并没有一个十分明确的分界线,相反,却有着很多内容的交叉与重叠。

智能网联汽车主要分为智能化与网联化两个层面,并通过这两条技术路径协同实现“信息感知”和“决策控制”功能。

从技术构成的角度来看,《国家车联网产业标准体系建设指南(智能网联汽车)》指出,智能网联汽车的技术逻辑有两条主线,即“信息感知”和“决策控制”。其发展的核心是由系统进行信息感知、决策预警和智能控制,逐渐替代驾驶员的驾驶任务,并最终完全自主执行全部驾驶任务。

具体而言,环境感知层、智能决策层、控制和执行层构成了智能网联汽车的全部技术体系。对这三个层级再进行细分,我们可以挖掘出其涵盖的具体领域,比如环境感知层涉及到摄像头、激光雷达、毫米波雷达、夜视传感器、GPSBDS、4G5G、V2X等;智能决策层涉及到道路识别、车辆识别、行人识别、交通标志识别、交通信号识别、驾驶员疲劳识别、决策分析与判断等;控制和执行层涉及到制动与驱动控制、转向控制、挡位控制、协同控制、安全预警控制、人机交互控制等。

环境状态如何感知?

智能网联汽车环境感知信息与网联信息的接入能够使智能网联汽车同时具备环境感知与网联信息获取能力,从而为实现高级辅助驾驶和自动驾驶提供全面的基础数据系统。

正如上所言,环境感知层的主要功能是通过车载环境感知技术、微型定位技术、4G5G及V2X无线通信技术等,让车辆能够对自身状况与外界的道路状况、车辆状况、行人状况等,进行动、静态的信息读取与收集,并将信息流顺利传输给下一个层级,即智能决策层。

随着机器视觉、雷达传感器、超声波传感器、激光传感器等传感技术的进步,大量的传感器开始在汽车上应用。这一阶段,智能汽车环境感知传感系统主要使用毫米波雷达、激光雷达、摄像头等传感器。具体的感知方法有雷达感知和视觉感知。

从目前的发展情况看,自动驾驶汽车搭载激光雷达,可以感知到周围360度的全景状况。图像传感器可识别标志、交通信号灯以及车道标线。

关于视觉感知,图森互联联合创始人郝佳男表示:“视觉感知,说白了就是拿一个摄像头拍一张图片,或者拍一个连续的图片序列,最后告诉计算机,你要给我完成一个任务。”而任务却有多种多样,比如识别车辆,识别某个物体,追踪移动的物体,以及场景分割等。

正确的打开方式应该是一组传感器,单目、双目或者多目,有不同的视角,有一些窄一点的去关注比较远的,有一些宽一点的去关注有没有闯入的行人等,此外还需要跑多个算法,比如目标检测、目标追踪、可行驶路面等。

总体而言,通过研究雷达感知技术、视觉感知技术、车联网技术应用于智能网联汽车环境感知的进展,有助于把握未来智能网联汽车环境感知技术的发展趋势。

多方数据如何融合?

有专业人士分析认为,结合各种传感装置、利用车联网、通过信息融合,可以实现对复杂道路交通环境的全息感知,这也是智能网联汽车环境感知技术的重点发展方向。

就产业发展状态而言,目前的传感器数据尚需要实现融合。比如,对一个目标,用雷达取得距离、相对速度;用摄像头识别类型和其与车道线位置关系;用激光识别其外形轮廓等,从而构成一个完整的目标信息体系,之后再传输到处理器进行运算。从技术发展来看,每种传感器都有其局限性,比如雷达的横向精度和对行人的检测算法不够先进,激光雷达虽然方向性好,波束窄,测角、测距精度高,不受地面杂波干扰,但其受大气的光传输效应影响大,不能全天候工作,遇浓雾、雨、雪天气无法工作。

在智能汽车多传感器信息融合技术应用领域,国内有G-BOS系统,欧洲有CVIS系统,美国有IVHS系统,日本有SmartWay系统等。

就问题而言,车辆行驶环境感知尚存在盲区,感知空间的广度和时间纵向的深度不足等问题还需要众多创新技术的支持才能得以解决。

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: