自动驾驶原理示意GIF图
特斯拉自动驾驶死亡事故给全世界带来了极大的震惊,但这并不意味着基于坏消息之上的关注全然没有正面意义。
在接受新浪科技采访中,多位硅谷相关人士告诉新浪科技:一方面是对于自动驾驶和背后技术有了更广泛地讨论、更深刻地认知;另一方面则是让不少风投看到了机会,认为传感器芯片为代表的硬件研发,以及计算机视觉为支撑的软件技术,将会迎来更大的关注度。
自动驾驶概念被厘清
特斯拉自动驾驶死亡事故最直观的影响是对概念的进一步普及。NewGen capital的创始合伙人张璐向新浪科技表示,事故新闻传播开后,在硅谷引发了轩然大波,以及广泛讨论,而这其中最重要的意义即帮助大众沥青了自动驾驶的概念。
“特斯拉事故以后,大家开始在讨论中越来越多地关注到特斯拉的autopilot(自动驾驶仪)是辅助驾驶而不是完全的自动驾驶。autopilot是用户驾驶的一个辅助功能,可以帮助驾驶员在开车过程中进行更好的判断、更轻松的操作。这个Google等进行的自动驾驶有明显的不同。”张璐说。
美国高速公路安全委员会(NHTSA)把自动驾驶分为5个级别
实际上,按照美国高速公路安全委员会(NHTSA)的5个分级,特斯拉所使用的自动驾驶属于第2级别的“混合功能自动化”,该级别主要包含能同时提供组合式的自动化功能。比如自动巡航和车道偏离预警的结合。还包含目前大家都积极研究的ADAS技术,主要有前车碰撞报警、盲点监测、车道偏离报警以及自动泊车等。
这个级别的自动驾驶技术与Google等企业研发的等级完全不同,在Google等企业所研究的第四级别的完全可自动驾驶车辆技术,最终目的是在驾驶过程中完全不需要司机的干扰、参与甚至存在。
此前,在接受新浪科技采访时,百度无人车项目负责人王劲也强调过自动驾驶等级概念的不同。这位百度高级副总裁认为把诸多车厂的“辅助驾驶”技术和百度无人车技术相提并论并不合适,二者存在概念到实质上的明显不同,甚至还引用了自动驾驶领域那句颇为著名的话:如果你要造一架飞机,那就直接去造一架飞机,而不是考虑给汽车加上翅膀。
但当时大众传播的角度,并不认为Level 2的混合功能自动化和Level 4的完全可自动驾驶车辆有什么概念上的明显不同——毕竟它们都想解放司机。然而特斯拉事故之后,随着大量的舆论曝光和讨论,一定程度上形成了对“自动驾驶”概念的进一步普及。
Google无人车模拟图
深层技术得到关注
另一方面,在对特斯拉事故中的安全性话题讨论之余,深层次的技术也进一步得到探讨和传播。
张璐称,特斯拉致死事件为业界带来了很大的负面影响,但核心仍是如何去理解autopilot,并不能因此对自动驾驶产生巨大质疑,毕竟是两个不同功能。
“特斯拉autopilot其核心技术来说,使用的是以色列Mobile eye技术,该技术除了特斯拉也被很多汽车厂商采用,但只有特斯拉开发给了用户。特斯拉也承认现在的Mobile eye还是一个beta版本,而非终极版本。”张璐介绍说,但她也表示,在硅谷的大部分讨论中,并不认为技术本身是死亡事件的主要原因。
她向新浪科技解释称,特斯拉在对外宣传上也是表明其并不是完全独立自主的自动驾驶系统。但对于用户而言,当特斯拉将这个功能开放出来后,用户在使用了一段时间后容易形成依赖感,而这样的依赖印象导致驾驶行为容易超过autopilot这样一个辅助驾驶功能的可控范围,带来了潜在的危险。不过从事件本身来看,驾驶员一边利用改装设备看视频一边使用autopilot,尽管autopilot技术不成熟,但究竟有驾驶方和车方就这次事件各占多少责任,也值得商榷。
这位硅谷VC还认为,更主要的意义在于讨论背后对深层技术的关注,而这些技术目前也是自动驾驶面临的主要挑战。
软件层面上,目前自动驾驶面临的主要挑战是基于图像的机器学习能力。
理论上,基于图像的机器学习可以让汽车实现自动驾驶,但在实际技术发展方面,仍有很多问题无法解决。例如现在特斯拉的辅助驾驶只能在高速公路上使用,因为在非高速路段,其无法自动识别停车等路标。所以只有当图像识别、判断,信息的分析、学习,得到深入发展,才可能真正解决自动驾驶面临的难题。
另外在硬件层面,图像采集也是难关。无论是各类摄像头还是传感器,其都是一个数据采集端。数据采集端采集的数据有完整性、反应时间与速度等,决定着提供数据的准确性。在这基础上,才是图像识别问题。
该说法也得到了硅谷机器视觉从业者的认可,此前参与创立Magic Leap的包英泽称,如何提高运动过程中的机器图像识别的准确性和精度,并且建立起实时精确定位,对于自动驾驶来说意义重大。
硬件成本再被热议
实际上,包英泽谈到的机器视觉的“精度”问题还与硬件息息相关。在特斯拉事故被曝光后,对于特斯拉autopilot配备的硬件,外界质疑不断。
TEEC天使基金管理合伙人张于庆称,今天的自动驾驶主要建立在传感器、照相机等设备之上。在特斯拉致使事件中,因为卡车车身为白色,车内照相机可能误判,又恰好扫描雷达看到的是大卡车的空档,也漏测了。
对于这种误判和漏测,张于庆表示更主要的原因在于硬件,“目前特斯拉汽车并没有安装能在200米内扫描成像,精确度到厘米级的激光雷达,而Google每辆self-driving车都有。这些传感器系统本身未完全成熟,业界更尖端的传感器技术如激光雷达技术(Google无人驾驶采用),特斯拉也并未采用。”
需要说明的是,百度无人车负责人王劲也向记者表达了同样的看法,在被问及“百度无人车是否会出现特斯拉一样的事故风险”时,他直言不讳地表示特斯拉之所以存在风险,是因为硬件成本上有要求,硬件太便宜了。
“特斯拉用的传感器比较少、价格也较为便宜,车上配备的摄像头和毫米波雷达也比较少。诸如百度这样的互联网公司做无人驾驶,使用的是非常昂贵的传感器,包括64线的激光雷达、弹道导弹级别的惯性导航,放置了多个毫米波雷达及多个摄像头,还配备红外摄像头、红外感应器。所以对于百度等使用激光雷达的互联网企业的无人车来说,类似特斯拉事故的误判基本不会产生。”王劲说。
值得一提的是,目前王劲所称的64线的激光雷达,价格接近80万元,这几乎是那辆发生事故的Model X的售价。
计算机视觉会被VC重点关注
也正是硬件成本的高昂,让诸多VC透过特斯拉事件看到了软件层面投资的重要性。
“在硅谷,虽然不少VC从硬件层面入手,开始重点关注雷达等领域,包括进行3D雷达开发,进行360度探测,获得更完整、全面的数据。但大家也知道新型硬件方面成本居高不下,需要时间等到硬件成本不断降低,才能广泛应用。”张璐介绍说:
她称在特斯拉事故之后,围绕自动驾驶所需要的图像识别、计算机视觉、深度学习等关键技术的投资热度在明显增强。另外,也已经有公司在开发不同于普通地图的3D地图,能详细到道路旁边的电线杆的位置,以及与下一个油桶、灯柱距离。对于自动驾驶的发展,这些周边的技术和系统扮演着非常重要的角色。
“完善的自动驾驶需要海量数据,需要对每个城市道路交通情况有充分地认知过程。还需要在感应器、大数据、机器学习、计算机视觉和车联网等诸多领域进行长期且深入的投入。”另一位硅谷风投从业者Sabrine向新浪科技补充道。
总而言之,从风险投资的角度,这些位于特斯拉“故乡”的硅谷VC普遍表示:这一定程度上让自动驾驶获得更广泛的关注,得到更多资源的支持,会进一步加快行业的发展——至少比预期要更快。
转载于新浪科技
3