主题 : 特斯拉事故频发背后:自动驾驶游走在监管灰色地带
千山同一月 万户尽皆春 千江有水千江月 万里无云万里天
级别: 总版主

UID: 998
精华: 0
发帖: 605058
威望: 529687 点
无痕币: 65 WHB
贡献值: 0 点
在线时间: 62586(时)
注册时间: 2008-12-25
最后登录: 2024-05-18

0 特斯拉事故频发背后:自动驾驶游走在监管灰色地带

导语:一场导致两人死亡的“无人驾驶”车祸再次将特斯拉推向了风口浪尖。尽管马斯克否认该事故与其 Autopilot 系统有关,但是自动驾驶系统的安全性依旧备受关注。在美国,自动驾驶系统其实一直游走在监管灰色地带。

特斯拉得州致命事故残骸
以下是文章分析:
一场看来没有人驾驶的特斯拉汽车导致的致命事故让人们对半自动驾驶汽车的安全性以及它所游走的美国监管灰色地带有了新的认识。
美国得州哈里斯县警方称,一辆特斯拉 Model S 在上周六未能通过一个转弯处,以很快的速度撞上了一棵树,然后起火,导致坐在副驾驶上的一名乘客和坐在后排的车主死亡。
特斯拉 CEO 埃隆・马斯克 (Elon Musk) 周一发布推文称,特斯拉下载的初步数据显示,这辆车当时并未开启自动辅助驾驶系统 Autopilot,它并不属于特斯拉的全自动驾驶系统 (FSD)。

马斯克称 Autopilot 当时并未开启
特斯拉 Autopilot、FSD 以及越来越多由其他汽车制造商开发的类似半自动驾驶功能,对负责机动车和公路安全的官员构成了挑战。
法规缺失造成的灰色地带
美国公路安全监管机构美国公路交通安全管理局 (NHTSA) 尚未针对 Autopilot 等半自动驾驶系统或者全自动驾驶系统出台具体的法规或者性能标准。
NHTSA 现在没有出台任何规定要求汽车制造商确保自动驾驶系统按照预期的那样被使用或者防止车主误用它们。美国联邦机构层面对自动驾驶系统的唯一重大限制就是:汽车需要按照联邦规定配备方向盘,由人操控。
没有了性能或技术标准的约束,Autopilot 等自动驾驶系统游走在了监管灰色地带。
在得州致命事故前,特斯拉汽车遭遇的一连串撞车事故都是在 Autopilot 系统开启时发生的。Autopilot 是特斯拉的半自动驾驶系统,能够实现一系列功能,例如帮助车主在公路上按车道上行驶和转向。
自去年 10 月份以来,特斯拉已经面向大约 2000 名车主推出了“测试版”FSD 系统,实际上是让车主们来测试 FSD 在公路的表现究竟如何。
监管机构职责模糊
更让自动驾驶汽车的监管变得混乱的是,传统上,NHTSA 负责汽车安全,各州的机动车管理局 (DMV) 负责管理驾驶员。
美国国家运输安全委员会 (NTSB) 称,当碰到半自动驾驶功能时,你或许很难说清是车载计算机还是驾驶员在控制汽车,也不清楚是否应该共同监管。
加州机动车管理局称,加州已经出台了自动驾驶汽车法规,但是只适用于配备了可执行动态驾驶任务的技术、没有主动身体控制或者人类操作员监控的汽车。特斯拉的全自动驾驶系统就不满足这些标准,被认为是不需要监管的先进辅助驾驶系统。

特斯拉 Autopilot 系统
知足常乐
级别: 十方秋水

UID: 23
精华: 1
发帖: 261149
威望: 117162 点
无痕币: 2494 WHB
贡献值: 0 点
在线时间: 9392(时)
注册时间: 2007-11-24
最后登录: 2024-05-13

看看了解一下,谢谢总版分享!
事能知足心常乐 人到无求品自高
Total 0.032999(s) query 5, Time now is:05-18 13:51, Gzip enabled 粤ICP备07514325号-1
Powered by PHPWind v7.3.2 Certificate Code © 2003-13 秋无痕论坛