Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,719,439字

该文章投稿至Nemo社区   资讯  板块 复制链接


马斯克上头炫耀「脱手自动驾驶」,被法院传唤出庭作证特斯拉命案

发布于 2023/08/31 15:53 206浏览 0回复 2,589

马斯克直播大秀 FSD 能力的得瑟劲儿还没过,监管部门却先找上门了。

调查内容:特斯拉隐藏的脱手驾驶模式,“伊隆模式”。并且声明特斯拉必须配合,否则将面临每天 2.6 万美元(约 18.95 万元)的罚款

另一方面,特斯拉备受争议“命案”事故,也走到关键节点:马斯克正在和司法部门极限拉扯,力求避免出庭直接作证。

而随着舆论的发酵,特斯拉之前因为自动驾驶引发的种种事故也都被重新提起、议论。马斯克和特斯拉自动驾驶,正麻烦缠身。

最近的一系列迹象都表明,监管部门和特斯拉之间“终极对决”的摊牌时刻,可能快到了。L2 + 智能驾驶落地的规则和前景,走到转折点。

“伊隆模式”引来调查

最近马斯克直播测试 FSD V12 能力,可谓是吸引了好一波热度。

直播视频已经有超过 1100 万人在线围观,一时间关于自动驾驶、端到端解决方案、神经网络的讨论更是层出不穷。

视频全程最炸的点,就是 45 分钟的车程,马斯克只出手干预了一次。其余时间里,马斯克都只是坐在主驾驶位上端着手机直播。

但从无需握方向盘、系统也没发出提醒可以看出,这或许也在明示,FSD 确实有一个隐藏模式 ——“伊隆模式”(Elon Mode)

实际上,不久前就有黑客在系统后台发现了这种允许长时间脱手,也没有任何驾驶员行为监控的“伊隆模式”。

正常情况下,FSD 要求驾驶员双手不能离开方向盘,还要施加一定作用力,且目光要保持专注。

一旦系统检测到手离方向盘或视线偏离,会发出安全提醒,提醒达 5 次后将失去 FSD Beta 的使用资格。

但在启用伊隆模式后,系统会关闭方向盘提示功能,脱手状态下也不会震动方向盘。这也和直播过程中,就算马斯克手没握住方向盘,FSD 系统也没发出安全提醒是吻合的。

马斯克的炫耀,还不止直播。

这两天,他又在推特上兴致大发,公开说他认为没有任何驾驶员监控警示的智能驾驶系统,才是好用舒服的系统

老马上头,紧盯着特斯拉的监管机构自然特别关照。

美国国家公路交通安全管理局(NHTSA)又发起了一项针对特斯拉的新调查。

NHTSA 担心现有特斯拉车辆都能用“伊隆模式”。并且既然公众都知道该模式的存在,可能会让更多司机尝试激活它,从而导致司机更加注意力不集中,并且无法监督自动驾驶系统的使用情况。

因此,NHTSA 要求特斯拉提供关于“伊隆模式”的一系列信息,否则将面临每天高达 2.6 万美元(约 18.95 万元)的罚款。

目前并不清楚特斯拉是否回应了 NHTSA。

但这还仅仅是特斯拉自动驾驶麻烦缠身的其中一项。接下来的这个,才更为致命。

特斯拉车祸命案,马斯克被要求作证

这起案件的核心是一起 2018 年发生的事故,一位 18 岁司机驾驶的 Model S 速度失控,导致司机和一名乘客死亡。

事故原因是超速和失控,特斯拉被起诉的原因则是遇难者家属认为,特斯拉电子限速根本没起作用,特斯拉虚假宣传

而在最近,审理这起案件的法官批准了一项命令,马斯克被要求出庭作证。他将接受长达 60 分钟的质询,关于他对与此次事件有关的特斯拉技术所做出的宣传。

这起案件之所以被热议,有这么几点。

首先是案情本身技术层面,电子限速功能,本身就和智能驾驶紧密相关。比如 L2 基础功能的定速巡航,以及被动安全机制 AEB 需要限速器的数据来明确激活范围条件。

另一个层面,案件本身造成严重后果,跟特斯拉之前一系列直接由智能驾驶系统导致的事故相关联,都直指 L2 系统普及过程中的安全和可靠性。

但 AI 技术本身具有复杂性和黑盒性,这也就使得一系列有关特斯拉安全事故的诉讼,控辩焦点转移到了“虚假宣传”。

即特斯拉明知有隐患,宣传时绝口不提,还有意误导用户能够“全自动驾驶”。

之前的案件审理中,特斯拉 AI 负责人已经出庭承认了特斯拉内部曾经伪造过自动驾驶安全视频,并且明确指认就是马斯克亲自下的令。

而现在,关于特斯拉自动驾驶的争议安全拉锯战,终于要到了最后对决 —— 马斯克被要求亲自出庭作证

这也是这诉讼被广泛关注的关键点。

如何解读

特斯拉走到了退无可退的时刻,所有的闪转腾挪手段基本用完,司法的取证手段,已经触及这个科技巨头的核心和灵魂 —— 马斯克本人。

首先,老马不能在庭上撒谎作伪证,这样做的后果,可能更加严重。这也是之前特斯拉自动驾驶负责人“和盘托出”的核心原因。

老马若出庭承认了“虚假宣传”,那么针对特斯拉的判决很有可能是不利的。

首先特斯拉的品牌形象会遭受重大打击,产品宣传研发节奏也会被打乱甚至是中断。

而作为自动驾驶技术探索的领军和风向标,特斯拉的“地动山摇”,会影响整个智能驾驶普及落地的前景。

所以马斯克目前也在想方设法利用法律条文互相制约,避免自己直接出庭

纵向来看,特斯拉脱手模式被调查、相关命案审理进入关键期,表明 L2、L2+、L2.5 等等这些目前如火如荼的智能驾驶落地普及,已经到了一个关键转折点。

首先无论是高阶自动驾驶,还是目前普及的智能驾驶,都不可能做到 0 事故。但这项黑科技的意义在于,系统整体可靠性超过人类,带来的实用价值和整体交通事故率的下降。

面对使用过程可能出现的事故,车企应该用科学的数据来证明系统的可靠性、司法要有一套明确的责任划分方法,商业上还得有相应的保险赔付机制,把黑科技纳入合理合法的商业经营活动中。

这些高阶智能驾驶系统推进落地时,未能形成量化标准的问题,亟待解决,国内和北美面临相同情况。

所以,最终法院又是如何界定责任方,最后案件判决和赔偿的结果又是如何,对于国内来说,都有借鉴意义。

参考链接:

  • https://electrek.co/2023/08/30/tesla-autopilots-elon-mode-draws-attention-from-regulators/

  • https://www.reuters.com/legal/litigation/teslas-musk-appeals-order-requiring-his-testimony-fatal-crash-lawsuit-2023-08-30/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/716/083.htm]

本文标签
 {{tag}}
点了个评