在2017CES 驾驶的未来正在实现

界面新闻 发布时间:2017-01-09 09:28:49 行业,观点

无论是科技厂商还是传统汽车厂商,都在试图呈现一个变革性的驾驶未来。


QQ截图20170109092659.png

图片来源:视觉中国

今年的CES算是一个“小年”,相比前几年,它没有带来更多的新技术,但乐观的一面是,你的确能够看到很多技术在实现,尤其是在驾驶领域。

你大概还能记得起两三年前CES的样子,当时都在感叹拉斯维加斯消费电子展怎么变成了底特律汽车展(每年稍晚于CES举办的汽车行业展)。的确,从那时开始,无论是科技厂商还是传统汽车厂商,都在试图呈现一个变革性的驾驶未来。

那些未来包括:无人驾驶、汽车的消费电子化、车与车对话以及新能源汽车等,当时这些概念在宝马、梅赛德斯的概念车里加以呈现,惊喜的同时也觉得那是至少未来十年的技术,而站在2017年年初回过头来看,不少概念已经实现而另一些概念则销声匿迹。

离第四级自动驾驶一步之遥

在“无人驾驶”已经变成一个噱头的时候,Uber让它又一次向普通消费者靠近了一大步——就在去年12月,这家公司邀请过乘客去试乘他们在旧金山的无人驾驶车辆。

在CES上,你能够看到无人驾驶的基础技术更为成熟了。简而言之,无人驾驶有两条技术路径,一条是依靠“触觉”的,这条路径依靠雷达探别周围环境的障碍物,由于技术成熟,准确性较高,谷歌的无人驾驶车辆就是这个路径的典型代表,但劣势十分明显,激光雷达的成本为商业化设置了围墙。而特斯拉为代表的厂商更推崇于依靠图像识别技术的“视觉”路径,但一直以来也苦于识别精度的提高有困难。而GPU厂商英伟达(Nvidia)在此次CES上展示的就是他们在后一条路径上所做出的努力。

“AI不仅是开车带你到处跑,也能在开车时候帮你观察四周,”英伟达CEO黄仁勋在Keynote上先是介绍了他们AI辅助驾驶系统“AI CO-PILOT”:通过在车外部安装四个摄像头,完全监控车四周环境,在出现类似自行车这样的障碍物时,系统识别出来,再通过自然语言提醒驾驶者。

除此之外,它还能够通过车厢内部的摄像头,对驾驶者做“脸部识别”、“头部追踪”以及“视线追踪”等图像识别技术,判断驾驶者是不是专心驾驶抑或是在看手机,提醒驾驶者安全驾驶或者是激活辅助驾驶系统,在内部车厢嘈杂,还能通过“唇部识别”来读出驾驶者的语音指令。

不难看出,这套路径完全是基于图像识别技术,紧贴英伟达的核心武器——基于GPU计算的深度学习。

从2007年前后,神经网络的研究者们发现使用图像处理芯片(GPU)替代以往的中央处理器(CPU),能够极大提高计算能力,神经网络技术也因此重新获得了发展契机,而神经网络又大大提高了图像识别和语音识别的准确性,专注于GPU生产的英伟达也成为当下最热门的芯片生产商。

“我们这套技术完全基于图像识别,这种图像识别正是来自我们在深度学习和神经网络上的研究,当用户购买车辆后,个人化的驾驶数据会进一步训练算法,让它更适应于个人的驾驶习惯,”在CES现场,Nvidia工程师向界面新闻介绍。

实际上,英伟达这种半自动驾驶技术更便于汽车厂商采纳,日本汽车厂商丰田的自动驾驶部门的研发人员向界面新闻介绍,相比Uber、Tesla这些公司,传统汽车厂商在采用和研发上更侧重于考虑安全性,因此目前推动的都是半自动驾驶。

根据美国交通部在2013年制定的标准,这种能够监控驾驶环境的半自动驾驶技术属于自动驾驶的第三级(Level 3)。这个标准将自动驾驶一共分为五个级别,在第四级下,安全环境中,车辆能够完全自动安全行驶;而到第五级,车辆任何环境下都能够像合格的驾驶员那样自动安全行驶。这些厂商的短期目标就是进入第四级。

就在2017年CES场馆外的停车场,一辆奥迪Q7就在不停地做自动驾驶的演练。在现场英伟达的Keybote上,奥迪美国公司负责人Scott Keough宣布,他们和英伟达正在合作,将在2020年推出自动驾驶车辆,也就是所谓的第四级自动驾驶。

在2014年的CES展上,我们曾在报道中用一句话提到NVIDIA发布了针对智能汽车的Tegra K1的VCM版本,在彼时芯片市场还在围绕移动设备、可穿戴竞争时,我们认为“智能汽车”领域的芯片生产会是未来的一个方向。我们谨慎地使用“智能汽车”而避开“自动驾驶”——因为它早已出现但又迟迟未能商用化,就在三年后,人工智能已经成为驾驶者。

和汽车自然对话

两年前的CES展上,苹果和谷歌开始试图以操作系统瓜分各大汽车厂商——以CarPlay和Android Auto绕过汽车生产商的本厂操作系统,为驾驶者提供谷歌和苹果的服务,包括导航、娱乐等。

芯片厂商高通技术公司业务拓展高级总监Paul Hedtke当时向记者提出一个概念:“我们可以把联网汽车看成是最后的也是体积最大的消费类电子。”

现在看来,Paul Hedtke概念过于激进。也许它会在未来实现,又或者它根本不是一个正确的方向,毕竟汽车的功能在于驾驶。但在这两年中,无论是谷歌还是苹果的确实现了让驾驶者和汽车有更好的交流。

如果把汽车看作一个设备,像手机一样的设备,在用户和设备交流的智能和便捷性上,现代科技公司所提供的设备远远比传统汽车厂商做得更好。在谷歌、亚马逊甚至苹果都开发出了能够自由输入的键盘、识别率非常高的语音助手工具,宝马这样的厂商还在使用汽车中枢旋钮输入,诚然它们在一台又一台概念车中展示了手势输入等等极具未来感的交互方式,但在已发行产品中,大大落后于科技厂商。

苹果、谷歌发布的操作系统拯救了驾驶者。只需要把手机和汽车连接,手机系统就能够通过Carplay或者是Android Auto投射到汽车中枢屏幕上,手机设备成为了你和汽车沟通的中介,汽车成为输出端,使用更为智能的地图导航、音乐服务,同时也能省花费去购买汽车厂商导航的支出。

而当智能手机进化到人机自然语言对话阶段时,谷歌和苹果之外的厂商亚马逊找到了自己在汽车领域的机会,毕竟驾驶时是最需要语音交互的时候。苹果的Siri率先让用户认识到人机对话的概念,比如告诉Siri想听歌,或者是需要打电话给某个联系人,而就在2016年前后,语音识别基础技术有了较大进步后,谷歌、微软和Facebook都更新发布了类Siri的语音助手。但Siri难以使用是一个不争的事实——语音识别准确率低,对于中英文混合对话无法处理,无法进行递进对话等等。而亚马逊在过去两年中通过销售智能家居产品Echo已经证明了其语音识别功能,现在它们打算构建自己的汽车驾驶系统。

“他们会在今年7月左右发布自己的系统,和Carplay类似的系统,但具体是不是会发布单独的应用以及他们如何和苹果、谷歌厂商之间合作现在还不清楚。”就在这次CES展上,福特展示了亚马逊的语音助手Alexa,“这已经植入我们本厂的操作系统,”现场工程师如此向界面新闻介绍。

亚马逊作为语音识别的突出表现在汽车驾驶领域预计不难被用户采用,对于说服汽车厂商想必也不会是难事,毕竟在过去两年时间里绝大部分厂商都接受了谷歌和苹果的合作,现在的问题是它以何种方式进入消费者手机,更根本的问题是如何和谷歌、苹果合作。

只需要稍作回顾,你能够发现一些热炒的概念变得销声匿迹,比如在两年前的CES上,宝马奔驰都在展示汽车之间对话的概念,但到了今年少有人提及,但如果看得更远,在无人驾驶时代这种对话或许必要。

而这些已经实现的未来技术背后也是基于大量基础技术的进步,包括深度学习推动的图片识别和语音识别,以及5G技术成熟所保证的汽车联网的可靠性。

而实现这些未来,在体验上向前迈出一大步又是由这些在垂直领域表现突出的公司多推动。

扫描下方二维码关注企多维微信号:qiduowei_com

QQ截图20160901092644.png