“车祸前1秒Tesla自驾系统自动退出”登上热搜,网友:关键时刻掉链子

  新浪科技讯 6月20日下午消息,近期,一场针对Tesla的调查,在社交媒体上掀起了轩然大波,这份调查来自美国高速公路安全管理局(NHTSA)。NHTSA展开调查的直接原因,是有不止一辆Tesla在开启自动驾驶系统Autopilot的情况下,闯入已有事故现场,撞上明明早已停在路边的急救车、警车或者出事车辆。在16起这样的事故中,Autopilot都是在汽车发生实际撞击前不到一秒才中止了控制。而这,完全没有给够人类司机接手的时间。“车祸前1秒Tesla自驾系统自动退出”登上微博热搜,引发网友热议。

  对此,有网友表示,“信自动,永远不如相信自己。”

  也有网友指出:“很多自动驾驶可能都是这样的。因为算法解决不了碰撞,只能退出。现在的算法没有那么智能,这些涉及到道德法规层次的,只能最简单化处理。”对此,你怎么看?


转载说明:本文转载自互联网,如有侵犯你的利益,请发邮件至本站邮箱,本站24小时内将予删除。

添加回复:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。