让无人车发生故障的方法各种各样,有的靠人工攻击,有的靠算法攻击。
最近,waymo的车祸层出不穷,总有一些司机故意撞waymo测试车,在waymo车前方突然减速,waymo根本来不及刹车,导致车祸。
首先和大家澄清一下,恶意调戏无人车是要负法律责任的。在waymo的多起车祸中,肇事者的意图十分明显,何况当时的waymo还是在人工驾驶状态,肇事方毫无疑问需要负全责。而且别忘了,无人车都配有各种传感器,肇事车的信息会被记录下来。下图是一次车祸前waymo记录下的肇事车辆。这辆车在空荡荡的路上突然刹车,导致车祸。
没有了人类司机,无人车将来会面临很多挑战,来自其他人类司机的刁难就是其中之一。这些车祸的刁难方式都比较简单粗暴,当然,也有一些比较“高级”的,比如利用深度学习的弊端,混淆无人车的识别系统。
友情提示:本文涉及内容纯属为了学术交流,请勿在实际场景中效仿,特别是在有无人车运营的路段 。
这种利用深度学习弊端破坏识别系统的方法可以统称为对抗攻击(adversarial attacks),即针对识别对象做出特殊改动,人的肉眼看不出来任何异样,但是会导致识别模型失灵。我们来看几个例子。
下图是两个stop sign,无人车看到stop sign就必须停下来。但是,下面两个stop sign经过特殊处理后,会被误识别为speed limit sign,即限速标志。
下图是行人识别,右边的行人穿上了混淆识别系统的t恤,完全没有被识别出来。不知你是否有兴趣买一件这样的t恤?
你可能会认为,这都没有关系,因为无人车有激光雷达,就算摄像头无法识别,也一样可以靠激光雷达探测障碍物。我们再来看一组针对激光雷达的对抗攻击。
我们把下面两个物体分别放在马路上,供无人车的激光雷达识别。左侧白色障碍物的表面经过特殊处理。
结果显示,左侧白色的障碍物根本无法被识别。激光雷达明明可以看到障碍物,却无法被识别。由于障碍物表面凹凸不平的形状,该物体成功在点云中“隐身”了。
普通的箱子可以被轻松识别。
对抗攻击不只可以用于扰乱视觉识别系统,也可以用于扰乱语音识别系统。我们来听下面两条语音。
两条语音听上去说的都是“without the dataset the article is useless”,没有任何差别,而第一条语音的识别结果其实是“okay google browse to evil dot com”,意思完全不同了。
对抗攻击的方式多种多样,我们必须尽快找到相应的防御措施(defense),才能保护无人驾驶系统安全。
区块链技术可以解决怎样的实际问题
MAX17100 内置开关boost调节器,集成扫描驱动器、
推荐几款性价比超高的家用投影仪,可在卧室和客厅使用
[组图]FM三单元八木天线制作
集成电路设计工程师的薪资未来会是什么样子
利用深度学习的弊端,混淆无人车的识别系统
索尼手机将支持全网通?
TL494充电器原理与维修
了解视频采集卡的主要功能及其识别技巧
什么是保偏光纤连接器,它的作用是什么
智能家居会受5G怎样的影响
如何使用Python对网络设备进行运维?
医疗科技时代来临 美国XNUO心诺重点在于放心医疗
槽型光电开关的工作原理/测试方法/典型应用/优势特点
人和人工智能最大的区别
整流桥整流后的波形是什么 整流桥出来的电压怎么稳定
人脸识别访客管理需求分析
iPhone7、7plus外观基本确定 配色很多我也是醉了
不再焦虑GPU供应,8芯片挑战5万亿参数大模型
国内的自动驾驶和智能网联示范区简单的分析