• 0点赞

  • 0收藏

首页 > 人世间 > 正文

图片

吉开 ijikai.com 3月18日讯 —— 自动驾驶领域的资深专家,竟然在自己最熟悉的领域“栽了跟头”。近日,现任Mozilla首席技术官、前Uber自动驾驶部门负责人拉菲·克里科里安(Raffi Krikorian)通过长文分享了一段惊心动魄的经历:他驾驶的特斯拉Model X在开启全自动驾驶(FSD)功能时发生严重事故,导致车辆当场报废。


事故还原:数百次的熟路,毫无征兆的失控

据克里科里安描述,这起事故发生在美国湾区某住宅区的一条街道上。对他而言,这条路早已驾轻就熟,此前已往返行驶过数百次。

事故发生当天正值周日,他正载着儿子前往参加童子军活动。在车辆进入一个弯道之前,FSD系统的表现一直非常平稳。然而,就在过弯的一瞬间,系统突然出现异常:

  • 突发异响与抖动: 方向盘毫无征兆地开始剧烈抖动。
  • 异常减速: 车辆在抖动的同时伴随着减速。
  • 干预无效: 尽管作为专业人士的克里科里安反应迅速,第一时间伸手试图夺回方向盘控制权,但车辆已失去控制,径直撞向了路边的混凝土墙。

伤亡情况:车辆报废,驾驶员脑震荡

巨大的冲击力导致这辆Model X当场报废。由于碰撞猛烈,克里科里安本人遭受了脑震荡,并伴有长达数日的头痛及颈部僵硬症状。万幸的是,坐在后座的儿子在事故中并未受伤。

值得关注的是,克里科里安并非“大意”的驾驶者。他表示自己始终遵循特斯拉的要求,将双手放在方向盘上保持警惕。他透露,自己对FSD的使用非常谨慎,是先在路况简单的高速公路上磨合后,才逐渐在普通道路上开启,没想到最终还是未能幸免。


法律困局:专家背锅,系统“免责”

尽管这是一起疑似系统算法或执行机构失效导致的事故,但在法律判定上,结果却令当事人颇为无奈。

保险判定结果: 事故的全部责任被归于克里科里安名下。

深度解析:

目前,特斯拉的FSD(Full Self-Driving)系统在法律框架内仍被定义为Level 2(组合驾驶辅助)。这意味着:

  1. 责任归属: 无论系统如何拟人化,驾驶员始终是驾驶的第一责任人。
  2. 监控义务: 驾驶员必须全程负责监控路况,并对系统的任何错误操作负责。

这起事故再次引发了行业对“自动驾驶信任陷阱”的讨论:当一套系统在99%的时间里表现完美,专业人士也会不自觉地放松警惕,而剩下的1%往往就是致命的代价。


评论员观察:别再对特斯拉 FSD 盲目“封神”了

这起事故最令人深思的地方在于:出事的不是一个对科技一窍不通的普通车主,而是一位曾执掌 Uber 自动驾驶部门、现任 Mozilla CTO 的顶级行业专家。

长期以来,特斯拉 FSD 在网络舆论中被部分拥趸吹捧为“驾驶之神”,甚至被视为已经超越人类驾驶员的“完全自动驾驶”。然而,现实却泼了一盆冷水:

  • “接管陷阱”无处不在: 当系统在 99% 的时间内表现得像老司机时,人类的警惕性会不可避免地下降。克里科里安即便手握方向盘,在短短一两秒的系统突发异响与抖动面前,依然无法阻止车辆撞向混凝土墙。
  • 营销辞令与现实的脱节: 尽管名字叫“Full Self-Driving”(全自动驾驶),但在法律和技术标准上,它依然只是 Level 2 辅助驾驶。这意味着,特斯拉在享受高额选装费的同时,通过服务条款将所有事故责任转嫁给了驾驶者。
  • 专家也会被“收编”习惯: 正如克里科里安所言,他在长期的使用中逐渐形成了习惯,降低了防备。这种“温水煮青蛙”式的信任,正是目前辅助驾驶系统最大的安全隐患。

结语:

我们不应否定技术的进步,但绝不该对其产生盲目的“宗教式崇拜”。在真正的 L3 甚至 L4 级自动驾驶法律法规完善之前,任何将生命完全托付给算法的行为,都是一场代价高昂的豪赌。

 

文章评论已关闭!

TOP