无智能,不驾驶

  • 来源:知识就是力量
  • 关键字:百度,阿波龙号,无人驾驶
  • 发布时间:2019-01-14 16:48

  2018年10月12日,百度首台阿波龙号无人驾驶小巴顺利进入武汉市开发区龙灵山公园,这意味着百度在全国的首个无人驾驶商业示范运营项目正式进入运行阶段。无人驾驶汽车这个看似遥远的高科技产物,已经渐渐进入到我们的生活中。

  无人驾驶汽车没有方向盘、刹车踏板、油门踏板,它在人工智能浪潮的推动下出现,将人类从枯燥费神的驾驶中解放出来。在减少疲劳驾驶的同时,更加安全地将人类送达目的地。不仅如此,无人驾驶汽车还能够提升驾驶舒适性、减缓拥堵。那么它究竟是如何实现无人驾驶的呢?

  “隐形”司机安全三要素

  每台无人驾驶汽车上都有一个“看不见”的司机,它不断地观察着车辆四周的环境,确保将乘客安全送至目的地。与人类驾驶员类似,这位“看不见”的司机需要解决三件事情,才能安全地驾驶汽车。

  第一件事:“我”在哪?

  人类司机在驾驶汽车去一个陌生的地点前,一般会拿出手机,打开地图APP,通过手机中的GPS接收器,确定自己在哪,这是本次旅程的起点。

  无人驾驶汽车也不例外,它也需要知道现在自己在哪,但不是通过手机,而是通过安装在车顶的“蘑菇头”获取当前汽车的位置,这个“蘑菇头”样的东西其实是GPS信号的接收器,配合安装在汽车里的惯性测量单元,就能够实现高精度的定位了。

  第二件事:“我”要去哪?

  人类司机在地图APP上看到自己的定位后,开始设置目的地。地图APP经过一系列的复杂运算,会提供给司机多条道路级别的规划路径,司机看到路径后就可以出发了。

  而无人驾驶汽车用的是高精度地图,它跟手机地图最大的区别在于精度—手机地图的精度为5~10米,而高精度地图的精度可以达到分米级别。同时,高精度地图能够为无人驾驶汽车提供更加丰富的道路元素,比如道路的车道数量、曲率、坡度和航向等,这些信息对保证无人驾驶汽车的舒适、安全至关重要,而普通的导航地图是没有这些信息的。在高精度地图中输入起点和终点后,无人驾驶汽车将获得车道级别的导航信息。

  第三件事:“我”怎么去?

  人类司机会通过眼睛感知汽车四周的环境,随后控制方向盘、油门和刹车,操纵汽车驶向目的地。

  无人驾驶汽车并没有眼睛,它是通过安装在车上的各种传感器,不断地采集数据,经由无人驾驶汽车的“大脑”分析后,来感知周围的环境。这些传感器包括能够采集图像数据的摄像机、能够精确测距和测速度的毫米波雷达和能够精确测量障碍物轮廓的激光雷达。在获得周围的道路信息后,无人驾驶汽车的“大脑”会进行避障、加速、减速等决策结果,随后计算出一条最合理、安全、舒适的路径来行驶。

  无人驾驶的必由之路—多传感器信息融合

  人类可以仅凭双眼来感知汽车周围环境,进而驾驶汽车。因此理论上来讲,只要在车身周围布置足够多的摄像机,实现360°的图像采集,就能够完成无人驾驶汽车的感知任务。

  但事实并非如此。因为以现有的图像处理技术,还无法让机器像人一样百分百地理解图像中出现的东西,所以工程师们在无人驾驶汽车上安装了激光雷达和毫米波雷达,来弥补图像处理技术的不足。

  每款传感器各有优势和劣势。单纯通过摄像机的图像数据是无法精确获得周围车辆的位置和速度信息的,而雷达擅长测距和测速,可以弥补摄像机的不足;但面对红绿灯或道路标志的识别时,又只能依靠摄像机的图像。

  因此,多传感器信息融合技术应运而生。它是通过人工智能算法,将每种传感器的优势发挥出来,取长补短,共同完成无人驾驶汽车周边环境的感知,这样才能保证无人驾驶汽车的安全驾驶。

  无人驾驶汽车将会在未来5~10年真正渗透进我们的生活。它可能是凌晨出现在路上的无人驾驶清扫车,可能是运送货物的无人驾驶货车,可能是运送包裹的无人驾驶快递车,也可能是方便大家出行的无人驾驶出租车。

  如果你有机会,一定要去体验一下无人驾驶汽车,享受科技给我们带来的便捷哦!

  撰文/陈光(百度智能汽车事业部)

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: