无人驾驶汽车的“智商”还不如马车?
人工智能领域的火热,促使很多传统技术升级,比如说无人驾驶——这个需要结合传统工程学、计算机视觉感知、深度学习模型的技术聚集型产业。
近一段时间,不少厂商纷纷大力加码无人驾驶产业——这里有传统车厂的规模性转型,也有互联网科技厂商讲出的新故事。即使是供应商、某些技术型初创公司,或是我们自己的汽车品牌都要或多或少的提到了无人驾驶将要到来。越来越多的企业都开始宣布2020年或之后的几年无人驾驶时代就会到来,甚至还做了分步的规划。
我们常常会高估某个新技术在近几年所能带来的影响,又常常低估那些已经存在的技术会给我们带来那些突然性的改变。其实我是想要给无人驾驶这个行当泼一盆冷水的——现在和大众谈无人驾驶是不是还太早了?
当然有一些理论佐证。
无人驾驶的轨道交通实现了没?
不少企业将2020年后(一两年)定义为完全自动驾驶时代。简单举一个例子,比如Lyft去年在无人驾驶(自动驾驶)概念最火热的时候就提出了这样一个分布走计划:
2017年,Lyft可能会进入第一阶段。在该阶段Lyft将提供给用户半自动驾驶汽车,不过这些车辆只能沿着固定的路线行驶。
第二阶段,自动驾驶汽车将可以自主导航行驶,而不仅仅是沿着固定路线行驶,而且最高速度仅限于每小时25英里。
第三阶段,预计将在2021年到2022年进入,届时所有Lyft的服务都由全自动驾驶汽车完成,汽车也将获得更快的行驶速度。进入该阶段之后,个人汽车保有量将迅速下降。
实际上,不少企业都有类似的观点,即——我们可能先会进入封闭道路的半自动驾驶测试——封闭道路的完全自动驾驶(无人驾驶)——最后可能是开放道路的无人驾驶阶段。而所有的此类规划大多预计在5 年内,可以让最终阶段的无人驾驶车在纯自然道路上开放行驶。
但其实仔细分析,仅仅是前两个阶段现在目前遇到的困难都不是在他们的预期内可以解决的。而从第二阶段到第三阶段的突破则需要更长的时间。
在大多数规划的第一阶段规划中,无人驾驶最好在一个特定的路线和环境内行走,比如无人驾驶公交车在特定的车道线行走。但即使技术上已经可以实现了,为什么无人驾驶在地铁这种在特定环境和路线中还没有大规模实现?
知乎上还真有轨道交通工程师探讨这个问题,有几个观点:1、地铁自动驾驶其实可以实现,但确实还有很多更现实的问题——事故发生、乘客求助等,还是需要有人维护,至少要控制开关门;2、地铁轨道交通依赖的是信号通讯,背后是有调度中心。
仔细想,其实无人驾驶轨道交通与无人驾驶地面交通有概念上的不同——一方面无人驾驶轨道交通对行驶路线已做限制,另一方面两者所遭遇的交通安全环境也不同。可以这样说,轨道交通用调度中心实现的无人驾驶应该被称为机器自动化还是真正的无人驾驶呢?
或许,光是自动化是不够的,必须得搞人工智能和认知计算。
我们说的真正的无人驾驶汽车,依靠的是计算机视觉,V2V通信、自动化决策控制,最起码要是一个具备认知决策的工具。所以更多的时候无人驾驶想要超越人驾驶,就应该像AlphaGo打败人类,它应该有一定的代替人决策的能力。
自动驾驶的基本问题是要解决车的问题,还是解决人的问题?
感知与认知,汽车与马
如果是解决车的问题,就把车做好就行。但自动驾驶更多的是一个软件上的问题,其实是在搭建出一个“人”的模型。
中国工程院院士、人工智能学会理事长李德毅在GTIC 上对无人驾驶有一个理论——汽车和马的理论。“我们认为,我们要把驾驶员的工作用机器人替代是有自主决策和行为能力的认知主体,实现自主驾驶,有个性。”
汽车从马车演变而来,作为动力工具,汽车的马力可以达到 100 匹,但是现在汽车远不如马,因为不同的负荷、不同天气、不同路面、不同的曲率、不同速度、不同车辆情况下的适应能力。
最主要的是汽车的感知和认知能力都还远远不如马这个认知主体。比如你可以叫马过来,它能听懂,你叫汽车,它就不能过来。院士提到——重点在于自动驾驶过程中,驾驶员与环境和周边车辆的交互认知在哪,驾驶员和经验和临场处置能力由谁来替代?
也就是说,很多汽车品牌谈到的自动驾驶或许也更应该被叫做汽车自动化,在今天成为一个可以自动刹车、跟车的工具,而不是一个有判断力的驾驶机器。
即使,汽车自动驾驶时,有时候释放人的脚,有时候释放人的手,甚至可以同时释放人的手和脚,但能不能释放人的主力——释放人的驾驶认知实现全自动驾驶,“如果不能释放人的注意力的自动驾驶,都是谈不上真正的自动驾驶(无人驾驶)。”
无人驾驶应该是有脑子的轮式机器人
轮式机器人,或者退一步说扫地机器人就有非常有趣的参考意义。
扫地机器人一般解决的问题是:本身要质量过硬,类比到汽车,这是汽车制造的方面;扫干净以及扫到位,这是最少要让它看到路。所以在扫地机器人方面的智能化升级,我们看到的是机器自动化的升级——它被赋予更多雷达、SLAM 功能,但它还会笨成一个“乱撞”的机器,这本身其实是暴力的穷举算法。就算是最先进的扫地机器人,也要先撞一遍探出路来才能在以后的工作中提高效率。
启动计算机程序,让汽车自动开;如果程序不合适,则由人来调程序;本质上这应该是程序员通过程序教机器人开车,汽车成为软件定义的机器,实现自动驾驶。
这点用自动泊车的原理也可以解释,比如泊车有正面泊车、垂直泊车、侧方泊车,还有最难的老旧小区私家车位泊车,各种角度的泊车。目前虽然已经有很多量产车型已经搭载了自动泊车,但其实在现实中面对刁钻的地形和位置,自动泊车依然不能完全脱离驾驶员的主观判断和干预:
这个停车位置有限,在地下又没有GPS,怎么办?于是,怎么把自动泊车的模式重新设计,有没有高精度的地图信息,没有,也没有卫星导航信息,有没有结构化的道路信息,有没有路径信息?没有,有没有路口信息,也没有。
在李德毅看来,现在的自动驾驶正在暴力的加上各种穷举算法。但即使加了越来越多的传感器——红外的不行就换视觉算法加摄像头,再不行就换激光雷达,价格又一下攀升。退一万步讲,就算实现了良好的视觉算法,也只是解决了汽车产业中真正驾驶员眼睛看+自动化控制的问题。人的驾驶理论和技巧却一点没学会,或许还是要回到用人工智能模仿人思路的问题上?
媒体们都说无人驾驶是一个交通产业通力合作的结果,有法律法规,交通网络升级,汽车工业的迭代。这是现实的因素,因为无人驾驶产业的核心部件还依然很贵,但其实功能还只能实现五六成,更别说让消费者买单了。
李德毅同样认为,全自动泊车取决于是否可以穷举泊车的所有窗口条件——“我们都停过车,你认为需要多少条件?这是一个人工智能的缺失,自动化技术的缺失,这个天花板怎么解决?”
如果连自动泊车都做不到,就更别提自动驾驶了;完全自动驾驶还都没有,也就更别提无人驾驶了。虽然,对于汽车的认知计算是有人和企业正在做的,但我们从目前在做认知计算的企业所能实现的效果来看,任重而道远?