ITBear旗下自媒体矩阵:

特斯拉“骚操作”引巨大质疑:车祸前1秒 Autopilot 自动退出

   时间:2022-06-19 17:27:57 来源:快科技作者:若风编辑:瑞雪 发表评论无障碍通道

近日,美国官方部门NHTSA发布的一份文件,将特斯拉再次推上了风口浪尖上,甚至有网友用“史诗级”来形容这次调查的发现。

据“量子位”报道,美国高速公路安全管理局(NHTSA)在曝光的文件中,有一句话显得格外醒目:Autopilot aborted vehicle control less than one second prior to the first impact.(在撞击前不到 1 秒钟,Autopilot 中止了对车辆的控制。)

QQ图片20220619171623

许多网友就纷纷展开了质疑:如此设计,特斯拉就可以否认事故是因为 Autopilot 了?

据悉,去年,有不少车主投诉称,特斯拉在开启自动驾驶系统 Autopilot 的情况下,闯入事故现场,撞上停在路边的急救车、警车或者事故车辆。

NHTSA从去年8月份就已经对此展开调查,NHTSA调查发现,在 16 起这样的事故中,在碰撞发生之前,大多数车辆的 Autopilot 都激活了前向碰撞警告(FCW)。

随后大约一半车辆的自动紧急制动(AEB)也进行了主动干预。不过最后都失败了(有一人不幸死亡)。

可怕的是,平均而言,这 16 起事故中,Autopilot 都是在汽车发生实际撞击前不到一秒才中止了控制。而这,完全没有给够人类司机接手的时间。

目前,调查仍在继续当中,特斯拉也没有对此事做出进一步的解释说明。而NHTSA 提醒,目前市面上没有完全自动驾驶的汽车,“每辆车的都要求驾驶员在任何时间都要处于控制状态,所有州的法律都要求驾驶员对其车辆的操作负责。”

s_df70b02acf7f4dae910ecf9ab2d376e8
 
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version