科技

腾讯科恩实验室成功攻击特斯拉autopilot系统 让车辆驶入反向车道

字号+ 作者:新闻小编 来源:未知 2019-08-15 10:59 我要评论( )

:据外媒报道,腾讯科恩实验室(Tencent Keen Security Lab)的研究人员发布了一份报告,详细描述如何成功对特斯拉(Tesla)......

据外媒报道,腾讯科恩实验室(Tencent Keen Security Lab)的研究人员发布了一份报告,详细描述如何成功对特斯拉(Tesla)的固件进行了攻击,包括远程控制方向盘,以及对自动驾驶系统autopilot进行攻击,让车辆迷惑,从而驶进了反向车道。

研究人员使用了一种攻击链,并且已经透漏给了特斯拉,特斯拉表示现在已经通过最新补丁,消除了该攻击链。

为了实现远程控制方向盘攻击,研究人员必须越过几个冗余保护层,之后,研究人员编写了一个应用程序,该程序可让研究人员将视频游戏控制器与移动设备相连,然后控制目标车辆,越过真正的车内方向盘以及自动驾驶系统。但是此类攻击具有一定的局限性:当车辆处于停止状态(P档),或是在巡航控制下高速行驶时,研究人员可以完全接管该车;但是刚刚从R档(倒车档)换到D档(型车档)的汽车只有在时速为8公里/时时,才能被远程控制。

特斯拉汽车使用多种神经网络来实现自动驾驶和其他功能(例如可以检测挡风玻璃上的雨水并打开雨刷器的神经网络);研究人员能够采用对抗样本,对神经网络做出非常小、且大多无法被人类察觉的改变,导致机器学习系统发生严重的错误,从而达到攻击目的。

最引人注目的是,研究人员攻击了特斯拉自动驾驶系统autopilot的车道检测系统。通过在车道标记上增加干扰,能够欺骗自动驾驶系统,让其完全无法检测车道,但是,研究人员在车道标记上应用的干扰措施,对于人类来说,很容易就可发现。

更严重的是,研究人员在路面上采用了“小贴纸”,让“车道”攻击生效,欺骗自动驾驶系统,让车辆进入了反向车道。而且即使目标车辆是在无雪、无灰尘或是无其他干扰情况的白天运行,此攻击方法仍然奏效。

作者:余秋云

      本网提醒:本网站转载【腾讯科恩实验室成功攻击特斯拉autopilot系统 让车辆驶入反向车道】文章仅为流传信息,交流学习之目的,其版权均归原作者所有;凡呈此刻本网站的信息,仅供参考,本网站将尽力确保转载信息的完整性,如原作者对本网站转载文章有疑问,请及时联系本网站,本网站将积极维护著作权人的合法权益。

转载请注明出处。

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
精彩导读