答马斯克:什么东西最有资格做自动驾驶的主传感器?

本文要点:
1.当L3量产阶段日渐逼近时,自动驾驶的技术路线之争仍未消停:Waymo、通用、苹果、丰田、沃尔沃等主流玩家都在加大对激光雷达的投入,但特斯拉却依然坚持认为,不需要激光雷达就可以实现全自动驾驶。
2.但实际上,业界占主流的声音仍然是:L3以上自动驾驶对感知的要求,摄像头和毫米波雷达根本无法满足。Waymo高管甚至在最近公开指责特斯拉坚持的LiDAR-Less是在“豪赌”。
3. 在认为应该将激光雷达作为主传感器的玩家中,激光雷达的感知距离、视角、角分辨率是大家共同关注的参数,但究竟哪种技术路线的激光雷达更适合量产,目前,业界仍未达成共识。
4. 在2017-2018年间,占主流的声音一度是:机械式激光雷达可靠性差,固态激光雷达才是主流。然而,目前,大多数车自动驾驶车辆上装的仍然是机械式激光雷达。由于技术和商业等多方面的原因,固态激光雷达在短期内还无法商业化。
5. 有一家硅谷初创公司,用一种称为“旋转的镜子”的技术,打破了”机械式激光雷达可靠性差“的诅咒。这家公司的300线激光雷达,在角分辨率上整体优于Velodyne的128线,而在视角上则优于Waymo的远距离激光雷达。

今年上半年,自动驾驶圈有个很奇怪的现象,当诸多公司都在嚷着“寒冬来了”,不得不勒紧裤带过日子的时候,激光雷达公司却接二连三地发布了融资消息:
- 1月初的CES上,北醒光子宣布已完成B2轮融资;
- 3月下旬,以色列固态激光雷达厂商Innoviz宣布获得1.32亿美元C轮融资;
- 4月初,美国激光雷达初创公司Ouster宣布,筹集了6000万美元;
- 4月中旬,全固态激光雷达解决方案提供商一径科技宣布完成数千万元人民币的A轮融资。
而回顾2018年,共有28家VC向激光雷达领域投资了6.5亿美元,交易笔数比2017年少了一些,但总金额却增加了34%(据Techcrunch)。
在L3量产时代来临前夕,作为高级自动驾驶汽车最关键传感器的激光雷达引发资本如此密集的关注,并不意外。
不过,在上个月的“自动驾驶日”上,特斯拉CEO马斯克却一句话就把整个同行都得罪了个遍:“只有傻X才会用激光雷达。“”任何使用激光雷达的自动驾驶公司都注定失败。”在马斯克喷完激光雷达后,特斯拉 AI 高级总监 Andrej Karparthy 又狠狠地补了一刀。他说:某种意义上,Lidar 是一个捷径。它回避了对自动驾驶非常重要的视觉识别的基本问题,给人一种虚假的“技术进步了”的感觉。不过,被特斯拉diss成“翔”的激光雷达,却被苹果视为扭转其运势的战略武器之一——最近,苹果正与至少四家公司谈判,希望能够寻找更适合自动驾驶量产车的下一代激光雷达;甚至,苹果可能还在自主研发激光雷达。
在自动驾驶上,苹果是“起了大早却赶了晚集”。这家公司造在2014年就开始了自动驾驶项目Project Titan,但2018年,苹果才开始密集测试。与其在业界的影响力相比,苹果在自动驾驶上的实际进展是不给力的。
加州DMV于2019年2月发布的“自动驾驶脱离报告”显示:苹果的自动驾驶车辆每行驶1.1英里就需要一次人工干预,在48家提交了成绩单的公司中排名倒数第一!而作为其核心业务的iPhone,也正遭遇到有史以来最严峻的挑战。
在这种情况下,苹果欲通过规模化生产,将激光雷达的成本从几千美元下降至几百美元,并通过改造激光雷达的外形使其能够融入汽车的整体线条,从而在自动驾驶的江湖混战中取得一个重要席位。
再往前推三个月,今年2月,通用旗下自动驾驶公司Cruise租用了新的办公室,而新增的团队成员将主要专注于激光雷达开发。而Waymo的行动则要比苹果和Cruise快得多。就在这两家公司正蠢蠢欲动的时候,Waymo的第二代激光雷达研发已差不多进入收尾阶段,目前,这款激光雷达已在旧金山一带展开路测。
据福布斯报道,Waymo在底特律的新工厂里完成的第一批改装车上,将使用最新款的激光雷达——而新工厂将于2019年年中开始运营。在5月8日的2019年谷歌I/O开发者大会上,Waymo首席科学家Drago Anguelov则公开Diss了马斯克。“确实需要用最好的摄像头系统,但无法想象只用摄像头如何实现自动驾驶,马斯克的方案可以说是一场豪赌,这样做风险非常大。”
在大洋彼岸的中国,一些初创公司虽然无法像苹果、Cruise和Waymo那样亲自上阵造激光雷达,却仍然通过媒体表明了自己的立场。如驭势科技创始人兼CEO吴甘沙说:在相当长的一段时间内纯视觉方案的鲁棒性一定是不如视觉加激光融合方案的。
文远知行CEO韩旭则说:“这个争论让我想起了托马斯爱迪生和尼古拉斯特斯拉的直流电和交流电之争:尽管爱迪生名满天下,声音巨大,但是由于交流电在变压,发电和传输方面的技术优势,使得当时的后辈小子特斯拉在竞争中获胜。”我一直对Elon Musk很尊敬,但技术面前,事实最重要。如果我们可以坐时光机器到5年后看看,那么就不需要争论了。Let us wait and see。”
吴甘沙和韩旭的“保守”是有理由的。
在L2级自动驾驶阶段,由于人是驾驶的责任主体,自动驾驶系统只扮演辅助角色,所以,特斯拉的LiDAR-less路线问题不大;但到了L3-L4阶段,由于自动驾驶系统成为的驾驶责任主体,因此,自动驾驶系统的感知能力要保障足够安全,并且要远远强于人类司机才行。
据统计,人类开车平均每几百万小时出一次致命事故。而每个小时人会做几千到几万次判断,算下来,如果大部分事故是由于感知造成的,大约每100亿次出现一次重大判断失误,即失误率为100亿分之一。
自动驾驶系统要取代人的话,得比人类强10倍才行。也就是说,系统的感知误差降要低到1000亿分之一。并且,几路冗余都要达到这个标准。(L3对感知能力的要求并不比L4低)然而,摄像头做图像识别的误差仅能达到1%左右;况且,特斯拉在自动驾驶状态下出的追尾事故可能已多到不计其数(《建约车评》在2018年1初做过一个调查,仅在中国区就已有近10起),而其中一个重要的原因便是:毫米波雷达无法在可以接受的误报率状态下可靠地检测静态障碍物。
没有了激光雷达,L2尚且如此,更何况是L3及L4呢?
在致力于L4级Robotaxi的传统车企中,为保证激光雷达的供应,通用、福特各全资收购了一家激光雷达公司,沃尔沃也战略投资了激光雷达公司Luminar,而宝马,在投资了Blackmore之后又跟Innoviz展开合作。
而Uber此前和Waymo闹得沸沸扬扬的那场官司,祸根也正在于一款为L4级自动驾驶卡车设计的激光雷达。
对绝大多数自动驾驶公司来说,他们既不能跟Waymo、通用和苹果拼工程师的数量和质量,也不能拼钱、拼车队,不能拼路测里程和数据中心的计算力,他们唯一有机会拼一下的,就是武器装备了。而激光雷达,便是最重要的武器装备之一。
当然,站在特斯拉的角度,不用激光雷达,是一种“更理性的选择”。与别的自动驾驶公司相比,特斯拉最引以为自豪的一点是:我有一支庞大的车队,已经积累起丰富的数据。但这一核心竞争力,只有在不用激光雷达的情况下才能实现——一旦用了激光雷达,车贵了,卖得就少了。实际上,对特斯拉来说,事故可是一个“重大契机”,对事故的反思,往往能让他学习到更多的东西、取得更大的进步。
当然,特斯拉这种“摄像头+毫米波雷达”的技术尽管用来做ADAS是可以的,但由于缺乏一个驾驶员注意力监控系统来做配合,因此,无法杜绝因驾驶员分心引起的安全隐患。
因此,马斯克在自动驾驶日上diss激光雷达时,自然引起了很多人的不满。有不少网友称自己“坚决不会买”这些“没有激光雷达的东西”。实际上,有一些一度跟特斯拉一样坚持“第一性原理”的公司,已经开始改弦更张,采用激光雷达了。
这方面,最典型的例子是Mobileye。Mobileye公司,自商业化以来,一直坚持Camera Only策略,但去年5月份,有媒体在亲赴以色列耶路撒冷体验Mobileye的自动驾驶原型车福特Fusion后发现,车的侧身装了法雷奥/IBEO的的激光雷达Scalar。事实上,至少从2016年8月跟德尔福达成关于L4级自动驾驶系统的深度合作开始,Mobileye的感情天平就逐渐向激光雷达倾斜了——在跟德尔福的合作中,Mobilye主要负责视觉算法,而德尔福则负责激光雷达的传感器数据处理技术。
2018年1月份的CES上,Mobileye宣布将从EyeQ 5开始采取更开放的策略,允许客户自己写算法,并支持摄像头与激光雷达等其他传感器的融合。
此后,在与EyeQ5相关的资料中,经常会提到“传感器融合”。反而,“第一性原理”、“视觉算法”这些概念提得少了。2018年5月份,在一次媒体采访中,Mobileye创始人Amnon Shashua竟然毫不掩饰自己对特斯拉自动驾驶方案的批评。他认为,特斯拉仅用一些成本很低廉的传感器、并且不做冗余,非常危险!
马斯克和Amnon Shashua都坚持第一性原理,希望基于视觉来实现自动驾驶。区别在于,特斯拉曾经坚持Camara First(现在,车上有8个摄像头);而Amnon曾坚持“Camara Only”,并且是“Only one Camara”。曾经的”Camara Only”“Only One Camara”居然开始批评“Camara First”“eight Camara”了,这可真是一件非常有趣的事情!
而到了去年10月份,Mobileye甚至宣布将可能自己设计激光雷达!Mobileye说干就干,去年11月,该公司斥资千万美元收购了一家激光雷达相关公司Eonite Perception(专门开发利用激光雷达或深度相机进行3D测绘、跟踪和识别的软件)。再然后,到今年5月上旬,Mobileye又依托Eonite成立了激光雷达部门LIDAR.AI,而担任LIDAR.AI负责人的正是Eonite创始人Anna Petrovskaya。
Mobileye,正在离“第一性原理”越来越远。不管马斯克是否能始终保持“众人皆傻X我独牛X”的自信,LiDAR-less路线的拥趸正在不断地减少。Mobileye亲自上阵做激光雷达,恰好印证了某资深业内人士的一句话:在这个行业做得越久的人,就会越谨慎,对传感器的要求越多。因为,时间越长,经历的坑越多,就会对激光雷达的必要性有更深刻的体会。
高级自动驾驶汽车究竟需要怎样的激光雷达?通常,衡量一款激光雷达性能如何的最关键指标有:探测距离、探测视角、探测清晰度等。
先说探测距离,在城市道路场景下,激光雷达的探测距离只要能达到70-80米就差不多了,但如果车辆要以120公里的时速在高速公路上行驶,探测距离至少要达到150米才算安全。
为确保万无一失,L4级Robotaxi对激光雷达的测距要求是,在目标物对激光的反射率为10%的情况下,探测距离能达到150—200米——允许一辆汽车在以120公里的时速行时有5—7秒的反应及刹车时间。这个要求,目前各家主流激光雷达厂商基本都能达到。
卡车,由于惯性比较大,所以需要更长的刹车距离。相应地,自动驾驶卡车需要激光雷达的探测距离能超过200米。这个要求,只有Velodyne、Waymo、Luminar和另一家硅谷初创公司可以达到。
探测视角,分为横向视角和纵向视角。鉴于激光雷达水平视角的需求通常根据具体的车辆集成方案确定,目前各家产品参数的竞争重点强调的是纵向视角和角分辨率。

探测精度,主要由纵向角分辨率决定。角分辨率越高,则能打到被检测目标上的光点越多、探测的清晰度越高。举个例子,纵向角分辨率为 0.4 度的 64 线激光雷达,扫描 50 米外 1米高的小孩可以产生3 条线的数据;而一个纵向角分辨率为 0.13 度的 300 线激光雷达,扫描同样的对象可以获得接近10 条线的数据。显然,后者能实现更高的清晰度。

不过,鉴于激光雷达发出去的光线在自然条件下一定会被阳光、雨雾等干扰,并且还会受被探测物体表面性质的影响,因此,保守估计,光束无法从被检测物体散射后接收到的概率会有5%-10%。
为了降低误差率,便需要通过增加光线的密度,最好是,一个被检测物体可以收到10个以上的光点,这样,就可以将误差率控制在1000亿分之一以内。如果在离激光雷达50米处有一个1米高的小孩,激光雷达扫在小孩身上需要产生10个光点的话,如果光点横纵均匀分布,则每两个相邻光点之间的角分辨率不能超过0.2度。

有的激光雷达厂商为实现在扫描50米外一个1米高的小孩会产生10个光点的目的,便把横向分辨率做得特别高,但纵向夹角非常大。这样,虽然平均单位截面上的点云密度“达标了”, 但其代价是,纵向扫描点云产生了很多漏洞,有的地方没扫描到,没有数据。
实际上,很难将各处的纵向角分辨率都控制在0.2度以内。为什么呢?仍以机械旋转式激光雷达为例,通常,一条N线激光雷达,相邻的光束间共形成N-1个夹角。假如光束的密度是均匀分布的,则这些夹角(纵向角分辨率)的大小大小便一样。因此,可以得出这样一个公式:纵向角分辨率*(N-1)=纵向视角。
正常情况下,人类眼睛的纵向角视角大约30度,激光雷达自然不应该低于这个水平。在光束均匀分布的前提下,一款激光雷达如果要同时满足“纵向角分辨率不超过0.2度”和“纵向视角不小于30度”的话,这个激光雷达必须至少是151线(150个夹角)。
然而,在目前技术已经比较成熟的机械式激光雷达中,还没有能达到150线的。在实践中,为了把纵向角分辨率做到0.2度以内, 激光雷达厂商有一种常见的做法是:在产品设计时,将纵向视场最中间一部分的光路做密,但代价是,边缘部分的光束很稀、角分辨率也很低。
这些公司官网上及在市场推广中提到的“纵向角分辨率”,其实仅仅是在光束最密部分的纵向角分辨率,而非平均值。比如,公开说的是“纵向角分辨率0.1度”,但这个数值并不具备代表性——简单计算可知,平均纵向角分辨率有0.31度,这意味着,在光束比较稀的地方,纵向夹甚至超过了0.4度。
这种做法的隐患是,如果设计参数优化得不够,在车辆行驶过程中,由路面坡度以及颠簸造成的车辆俯仰角会使得车辆前方很长一段路面只被低分辨率的扫描部分覆盖,造成大量扫描漏洞。
比如,假如车辆是在高速公路上以120公里的时速飞快行驶,前面有一块小砖头或破碎的轮胎,恰好处于两条光线中间的空隙中,没有被检测到,这个时候,车辆当然会继续“目中无砖”地“冲上去”,结果,轻则爆胎,重则车毁人亡。
为克服障碍物“见缝插砖”的问题,自动驾驶界的常见做法是,把几个低线束激光雷达堆叠在一起,达到一个高线束激光雷达的效果。但这个只是理论上容易,操作起来却很难——如果位置排布不好,光束很难无缝衔接,扫描起来仍然会有遗漏。此外,多个激光雷达之间也可能会互相干扰。
而一家成立于2016年底的硅谷初创公司则采取了更加“老实本分”的方式——将光路均匀分布,并将光束做密,使激光雷达在各处都达到了极高的角分辨率。该公司的300线激光雷达号称“纵向视角40度、纵向角分辨率0.13度”。

《建约车评》抱着怀疑的态度计算了一下,结果发现,400/(300-1)=0.13度。这300条光束果然是均匀分布的,“0.13度”这个数值果然不只是一个“峰值”,而是各处都可以达到的指标。
下图是从这家初创公司的300线激光雷达在高速道路上演示的视频中截出来的。由于光束均匀分布且密度高,探测的清晰度也极高。

下图是从这300线激光雷达在美国硅谷PaloAlto的城市道路上的演示视频中截出来的。

下面的驾驶场景显示了图像级激光雷达在阳光照射条件下相比摄像头数据的优势。左图摄像头的图片中很多车辆由于反光看不清楚,但右图的图像级激光雷达可以清楚显示出每一辆车的三维点云。

由于检测清晰度高,这款300线激光雷达已可检测到120米以外的行人。

下面这个视频从另一方面显示了这款激光雷达点云的探测清晰度:可以清楚看到40米范围内的飞鸟。

这家公司的创始人告诉《建约车评》:“达到这么远的探测距离和这么高的分辨率,我们的激光雷达可以做自动驾驶的主传感器,用来构建误差率低于1000亿分之一的感知系统,满足L3以上自动驾驶的需求。”
这位创始人还称,该公司是“世界上唯一一个做出比waymo的激光雷达强的产品的公司”。
下面的是Waymo发布的激光雷达点云的图:

原因在于“探测距离和角分辨率差不多,但我们的视角比他大——Waymo的横向视角不到10°,纵向视角也许在30°左右,而我们的300线激光雷达横向视角有100度,纵向视角则为40度。“(当然,Waymo的优势在于,他们把这个长距的激光雷达和另外两款中距和近距激光雷达融合在了一起。)
除角分辨率足以与Waymo的激光雷达媲美外,这家公司未来还会发布两个杀手级功能:将激光雷达与摄像头在硬件层面进行像素级前融合,以及受仿生学启示实现同时双焦实时高清视场调节。
激光雷达本身只能判断目标物的形状,却不能识别色彩信息,因而也不能识别除目标物的具体类型——只能告诉决策中心”前面有个东西“,却不能具体说清那个东西究竟是什么。这一任务,需要通过跟摄像头的融合来实现。
不过,不同于无人驾驶方案供应商通常是将摄像头获取的数据跟激光雷达获取的数据进行后融合,这家硅谷初创公司是在硬件层次就将激光雷达和视觉传感器在像素级进行前融合。这一融合方案有如下几点优势:
1.解决了数据同步的问题
在常见的那种“数据融合”下,来自于不同的传感器并经过汇总的数据在软件层融合的过程,往往需要几十毫秒、上百毫秒的延迟——如果不同厂商做的传感器没有同步的机制,还需要额外花很大力气做同步;同步不好的话,同一个物体会由于运动造成不同传感器探测到的空间位置的不一致,给后续融合造成额外的困扰 。
而在硬件层面的融合,则不会存在这种问题。
2.节省计算量,降低功耗
硬件端的融合还减少了对计算量的要求,提高了运算处理的效率。
站在摄像头的角度看,跟激光雷达在硬件端融合,检测到的信息就直接是三维的,不像之前那样只能检测到二维信息,然后第三维“靠猜”了;站在激光雷达的角度,跟摄像头的融合,检测到的信息直接带有颜色,可以分类,不需要后端再处理一次了。
从产品性能的角度,节省计算量,就是提高效率;而站在用户的角度,节省计算量,就可以降低功耗、降低对硬件端的性能要求,进而降低成本。
将激光雷达和摄像头在像素层面融合,技术原理并不复杂,业界也有不少公司在探索。但鉴于目前大多数激光雷达的线束都不够多,点云密度比较低,对目标物的检测中会出现漏洞,因此,融合的效果并不会很好。
只有在点云密度比较高的时候,激光雷达(通常需要达到200线以上)跟摄像头的前融合才会有比较好的效果。而这家初创公司的300线激光雷达,点云密度很高,形态跟已经跟摄像头识别出的图像差不多了,因此,能够实现比较好的融合效果。在某些驾驶场景中,感知算法研发者需要激光雷达在视场的某些部分(Region of Interest,简称ROI)达到更高的角分辨率,并且ROI需要在横纵方向实时调节——类似人类或者很多动物的眼睛的高、低分辨率同时探测的功能,这样可以使整个系统数据和功率效率大大提升。
这家公司给我们展示了下面的产品原型点云数据。可以看到,整个视场的大部分范围,角分辨率都接近上面300线激光雷达的点云密度,但是在视场中间的一部分分辨率格外高,以至于120米以外的行人身上也可以有几十个光点。

更加难得的是,这个高分辨率的ROI区,一方面是和整个视场中的数据在一帧内同时采集的,可以达到一秒钟15帧;另一方面ROI区可以根据场景从感知系统得到命令进行帧间实时调整。据我们所知,这是世界上第一次有激光雷达在如此高的测距和分辨率的情况下实现这一功能。
这家公司把这一技术称为同时双焦实时高清视场调节(Simultaneous Bi-focal, Instantaneous Region-of-interest, or SBIR)此外,从测试阶段过渡到量产阶段,激光雷达除了技术参数要有明显提升外,还得考虑集成的容易程度。
这款300线激光雷达被做成了“混合固态”,宽度和普通智能手机相当,很容易被集成到整车上。正如前面提到的,这款激光雷达可以和多种摄像头在硬件层面融合,也让集成时的工作量更少了。
不过,令人感到意外的是,在技术路线上,这款300激光雷达却并不属于业界公认为激光雷达“未来趋势”的“纯固态”,而仍然是被认为“不够可靠”的“混合固态”。机械式激光雷达被诟病的槽点很多,如体积太大,如适配不同车辆往往需要精密调节其位置和角度、不易集成,但最关键的槽点集中在“机械旋转部件在行车环境下的可靠性不高,难以过车规“。而所谓的“混合固态”,只是把机械运动部件封装在系统里,在本质上仍然属于机械式,因此,其长期可靠性仍然遭到怀疑。
被认为是“未来趋势”的固态激光雷达,无论哪种技术路线,共同点是:内部没有机械旋转部件,可靠性高,容易过车规。听上去很诱人。然而,从目前市场上产品技术的进展来看,固态激光雷达的技术在现阶段还很不成熟,不适合量产。
下表是已经得到公认的三种主流固态激光雷达的优缺点:

由于上述种种原因,在短期以内,固态激光雷达是指望不上的。如果把希望都寄托在固态激光雷达身上,自动驾驶的商业化进程将可能被延误。因此,当前,大多数自动驾驶汽车上顶着的依然是机械旋转式或者有机械运动部件的混合固态激光雷达。当然,机械式激光雷达‘可靠性低“的隐患是真真切切地存在的。
以“机械式“排布128套光路的128线机械激光雷达为例。光束在纵向上的128条光路是“并联”的,如果每组光路的失误率为千分之一,即可靠度99.9%的话,那么,在最极端的情况下,128条光路的可靠度应该是0.999的128次方=0.879797=0.88。换言之,失误率超过12%。还有一种做法是双振镜方法,用一纵一横的两个振镜做扫描,原理看起来很简单,但扫描起来速度很慢——对每一帧图像,64线激光雷达需要左右扫描32次才行;如果一秒有10帧,就需要来回扫描320次。
320次/秒,这是非常高的扫描频率了。如果用比较大的镜子,这种扫描频率,倘若需要精确控制扫描速度,则需要耗费的能量会非常多。况且,这意味着,在车的整个生命周期里, 这个镜片需要经受上千亿次振动才行,即使最终能达到车规级的可靠性,也需要大量的开发资源和调试时间。
不过,最近,笔者意外得知,有一家公司,已经用一种独特的技术打破了“机械式激光雷达可靠性不够”的诅咒。恰好,这家打破“机械式激光雷达可靠性不够”诅咒的,正是上述那家将激光雷达做到300线的硅谷初创公司。笔者早在2017年就跟这家硅谷初创公司的创始人相识,并在过去的一年多有过多次交流,但此前,只了解到其产品最大亮点是“线束高”“光束均匀分布”“角分辨率高”,却从未听他们提起过还有其他“看家本领”。因此,当意外得知这个老朋友的公司竟然打破了“机械式激光雷达可靠性不够”诅咒时,笔者将信将疑。毕竟,这是连一些在业界耕耘了许多年的老司机们都没有搞定的问题。
在好奇心的驱使下,笔者主动联系上这个老朋友,试图挖掘出他们还藏了哪些“绝技”。
起初,这个老朋友并不肯正面回答笔者的疑问,但最终,在笔者的反复追问下,他终于肯松口了:我们的混合固态激光雷达,是“两面旋转的镜子的组合“,通过镜子的旋转进行二维空间的扫描。与“振动的镜子”相比,“旋转的镜子”优点很明显:旋转是更好的运动,匀速转动只需要克服摩擦力,耗损很小,能实现更高的能量效率,并且可以达到很高的可靠性。由于激光雷达的很多元件对高温很敏感,因此,散热问题通常会影响到系统的可靠性。比如,128线激光雷达将128路光源发射和接收器都装在一个盘上旋转,与非转动部分只靠轴承接触,所以散热很难。
相比之下,这家初创公司这种旋转镜片的方式只是作为被动元件的镜子在运动,产生热的光源和探测系统是固定的,很容易通过成熟的技术实现可靠的散热。同时,这家初创公司还把镜子做得比较大,这样,系统接收光的效率便比较高了,达到同样远的探测距离可以节省很多能量。此外,由于“旋转的镜子”结构简单,主要有无刷电机和轴承两个元件,实现起来比较容易——1.把磁铁选好,可以承受高温就可以了;2.轴承,是已经比较成熟的技术(量产成本几美元的轴承,寿命可以比汽车长得多),只要旋转部分不要太沉就OK了。
目前,业界唯一过车规的激光雷达即法雷奥/IBEO的Scalar,采用的就是“旋转的镜子”。所以,这家初创公司对“能否过规”这个问题充满信心。而且笔者还了解到,这家公司300线的激光雷达产品“猎豹”上个月已经通过了基本的车规级颠簸震动测试。
一家2016年底才成立的初创公司,凭什么能够解决连一些在行业里耕耘已久的老司机们都难以解决的问题?
这家公司的创始人认为,激光雷达是一种精密光学传感器,技术原理并不复杂,真正困难的是,如何在那么小的空间里放进去那么多的精密部件,内部架构如何设计、怎么扫描、怎么接受、光路是怎样的、怎么通过精密电路和算法设计最好地使用好系统搜集到的每一个从被探测物体反射回来的光子等等 。因此,一定需要由有丰富精密仪器开发经验的人做。但目前,多数激光雷达公司都缺乏足够多的经验丰富的专业人才。这个领域的很多初创公司都在模仿Velodyne的技术路线,但这一技术路线是否就是最好的、是否就代表着激光雷达的长远方向,还存在变数。事实上,Velodyne自己也处在不断的变化中。所以,一味模仿,可能会失去方向感。
而这家初创公司,则从一开始就有底气走一条属于自己的道路。
该公司创始人鲍君威, 2016年底创立公司前曾在百度负责传感器和车载计算技术,并带领团队对各项新型传感器进行深度测评,在那段时间,他对自动驾驶对传感器技术的需求有了深刻理解。
在2014年加入百度之前,鲍君威跟精密光学仪器打了十几年交道。他自北大物理系毕业后就去加州大学柏克莱分校读硕士和博士,并在读博士期间和两位师兄共同开发了可称之为“显微光学雷达”的Scatterometry 技术,创立Timbre Technologies, Inc。
Timbre Technologies, Inc在2001 年被Tokyo Electron 并购。在随后的十几年里,鲍君威带领Tokyo Electron 在硅谷的光学测量部门将Scatterometry 从原理模型变成可实际应用的精密测量设备,引领了Scatterometry 技术及其它精密光学传感器在先进半导体生产制程中的广泛应用。
而该公司的联合创始人、CTO李义民也是个精密电子及测试仪器方面领域的“老司机”了。他自本科到博士期间,一直就读于北京大学无线电系,1999 年赴美在美国Argonne 国家实验室做博士后,随后在多家硅谷光通信及精密仪器公司开发技术,包括光纤激光器、超声波探测器、陀螺仪、电子显微镜及原子力显微镜等。
2008—2011 年间,李义明在Velodyne 作为工程团队核心成员研发激光雷达,并于2016 年初加入百度自动驾驶事业部,担任传感器团队技术负责人。除鲍君威和李义民外,这家公司还有多名成员都在精密光学设备领域有丰富经验的⼯程师,平均工作经验近二十年。
鲍君威认为,这个拥有“跨界”知识(既懂自动驾驶市场的需求,又懂精密光学仪器)的团队,才是该公司真正的壁垒。差点漏掉,这家硅谷初创公司的名字叫Innovusion。
目前,激光雷达厂商中,赢得车企认可的,除了法雷奥-IBEO,还有Luminar,从商务发展上看,Luminar的进展要快得多。而据鲍君威透露,有一些已经跟Luminar建立起合作关系的国际车企,也在跟Innovusion接触,并表现出强烈的兴趣。
当前,Innovusion已经小规模量产激光雷达“猎豹”,并正在扩展新的生产设施,预计今年的产量可达上千台。Innovusion还在考虑结合市场规模的增长速度在中国设生产基地的可能性。