Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,782,655字

该文章投稿至Nemo社区   资讯  板块 复制链接


雷达终结者,这回特斯拉连毫米波雷达都省了

发布于 2021/06/03 09:09 441浏览 0回复 2,138

“火星人”马斯克在不久前又干了一件不可思议的奇葩事,他表示,特斯拉美国工厂从 5 月份开始生产没有搭载毫米波雷达的 Model 3 和 Model Y 车型。对此,特斯拉官网也作出了更新,在其车辆传感器的介绍页面取消了毫米波雷达的图示。

众所周知,激光雷达可谓是智能汽车实现高级别自动驾驶的标准配置,而马斯克却一直都是业内有名的反激光雷达斗士。此前马斯克就多次吐槽过激光雷达的“鸡肋”属性,如今的特斯拉不仅依旧对激光雷达不感冒,甚至连区区几百块钱的毫米波雷达也要从车上拿掉。对此,小雷不禁想问,马斯克到底哪来的自信呢?

■ L2 并非自动驾驶

通过 SAE 公布的最新版自动驾驶标准来看,L2 级别自动驾驶技术被明确划分到了“驾驶员辅助系统”的范畴。之所以要重点突出“辅助”,是为了让自动驾驶技术供应商、车企以及消费者更好地区分驾驶过程中人和车的主导权和责任划分。

小雷认为在 L2 级别辅助驾驶技术的主导权方面,部分特斯拉车主除了应该加强学习使用刹车之外,更需要加强的是对特斯拉 Autopilot 辅助自动驾驶系统驾驶主导权方面的认知。

要知道,如今绝大多数因为自动驾驶导致的交通事故都来自特斯拉,而特斯拉之所以容易造成交通事故,正是因为有些人对如今还处在“驾驶员辅助”阶段的自动驾驶技术有着迷之自信,缺乏对 L2 级别自动驾驶技术辅助性质的理性认知。

罗翔老师说过:“法律是道德标准的底线”,小雷对此深以为然。如果同样以最低的道德要求来解读 SAE 自动驾驶分级标准,那么它也是自动驾驶的安全底线。这份极具权威性的标准给 L2 级别自动驾驶定义的辅助性质,其本质上就是在给支持 L2 级别自动驾驶的车企进行责任“松绑”,将由 L2 级别自动驾驶导致的事故责任彻底推给了消费者。

在明确了 L2 级别自动驾驶技术的辅助性质之后,特斯拉再也不用担心由于 L2 级别自动驾驶造成的事故替用户“背锅”了。因为从 SAE 标准的字面意思上理解,L2 级别自动驾驶只是一项辅助驾驶的便利性技术,并没有保障全场景自动驾驶安全的必要责任。

L2 级别的自动驾驶技术发展至今已经变得相当成熟,它的算法经过数年的优化也有了长足的进步,如今市面上已经出现了很多仅凭摄像头就能实现 L2 级别自动驾驶技术的车型。由此可见,特斯拉虽然是目前视觉算法玩得最 6 的车企,但它却不是唯一一家仅凭摄像头和超声波雷达达到 L2 级别自动驾驶的车企。

虽然如今 L2 级别的硬件应用当中却依然是以毫米波雷达和摄像头为主,但是我们都知道激光雷达才是发展完全自动驾驶技术的核心硬件。为了进一步扩展自动驾驶能力,目前已经有不少车企给自家的新车型装备了激光雷达。那么,连毫米波雷达都弃用的特斯拉,仅凭纯视觉算法真的能够逆流而上吗?

■ 马斯克为何如此崇尚视觉算法?

小雷认为马斯克推崇视觉算法的理由有二。其一,马斯克一直都希望将特斯拉的制造成本压到最低,而摄像头作为视觉算法的主传感器,它的成本比激光雷达和毫米波雷达都要便宜。

据悉,目前特斯拉 Model 3 的自动驾驶摄像头成本只需要 65 美元。要知道,在 2018 年,激光雷达领域的扛把子 Velodyne 最便宜的 16 线激光雷达 VLS-16 售价也要 4000 美元,而 64 线的 HDL-64 售价更是高达 7.5 万美元。

如今即便是高举性价比大旗,要做激光雷达价格屠夫的华为,它的 64 线车规级激光雷达价格也依然是汽车零部件当中的“奢侈品”。这么看来,“抠门”的马斯克选择成本低廉的视觉算法技术路线也是可以理解的,毕竟他还要完成他“葬身火星”的大计嘛。

其二,马斯克坚信第一性原理。他认为既然人类只需要将肉眼观察路况传输给大脑,大脑再根据获取到的信息指挥肢体就能够完成汽车驾驶的过程;那么汽车自然也可以通过摄像头模拟人眼,通过不断升级迭代的算法模拟大脑,让自动驾驶系统自己来完成汽车行驶的过程。

另外,在马斯克看来,人类只有两只眼睛,注意力永远只能够集中在一个方向,而汽车可以通过搭载多个摄像头实现“眼观六路”,并且电脑的学习能力也远比人类大脑的学习能力要强,所以自动驾驶在未来也必将比人类自己驾驶汽车更加熟练。

■ 总结

纯视觉算法从短期来看,确实可以轻而易举地实现如今并不算太先进的 L2 级别辅助驾驶功能,而特斯拉日益成熟的视觉算法,甚至能让它的自动驾驶技术在多数情况下将“辅助”二字去掉,实现真正意义上的自动驾驶。然而,所谓的多数情况也就意味着真实的路况依然会存在各种不确定因素。

马斯克将自动驾驶摄像头比作人的眼睛本身是没有错的,但是人的眼睛也有很大的局限性,而摄像头模拟的就是人眼,所以它自然存在这种局限。比如说在暴雨、大雾等能见度低的天气情况下,摄像头和肉眼都不具备激光雷达、毫米波雷达的“透视”属性。

由此可见,即便特斯拉拥有再强大的算法,仅仅依靠摄像头的纯视觉算法也会因为受到感知硬件的限制,而无法在极端天气情况下实现自动驾驶。要知道,如果自动驾驶“辅助”阶段发生了事故,那么车企还能有些许解释的余地;而自动驾驶一旦走上正轨,纯视觉算法天然的弊端所带来的事故风险就必须由车企承担。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/555/198.htm]

本文标签
 {{tag}}
点了个评