安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞
随着技术的进步 , 车载驾驶辅助系统的安全性得到了不断的提升 , 但其可靠性仍未能让我们感到满意 。 安全研究人员已经证明 , 通过被劫持的互联网广告牌 , 就可诱导特斯拉电动汽车的 Autopilot 等系统采取突然的制动、驻车或转弯等操作 。 《连线》杂志报道称 , 位于以色列内盖夫的本·古里安大学的研究人员 , 一直在对所谓的“鬼影”图像展开试验 。
文章插图
资料图(来自:Tesla)
具体说来是 , 这些图像可能让自动驾驶 / 驾驶辅助系统感到困惑 , 其中涉及到营造瞬间的光线投射、让系统“看到”不存在的物体(比如停车指示牌) 。
这项技术的早期示例 , 是将路标和人的影像投射到道路上 。 即便只显示几毫秒的时间 , 就足以误导高级驾驶辅助系统(ADAS) 。
【安全研究人员演示如何通过入侵广告牌来误导特斯拉Autopilot发生碰撞】Securing Advanced Driver-Assistance Systems(via)
虽然本文介绍的这项新研究基于类似的方法 , 但演示中并未使用投影的图像 , 而是利用了联网的数字广告牌 。
在侵入某款数字广告板之后 , 攻击者可注入一些可能导致汽车发生碰撞的内容 , 但不会留下明显的痕迹(司机只会感到一头雾水) 。
Phantom Attacks on Driving Assistance Systems(via)
据悉 , 研究人员针对特斯拉 Autopilot 和 MobileEye 630 系统开展过测试 , 前者会被出现仅 0.42 秒的鬼影图像所欺骗、后者则是 1/8 秒 。
有关这项研究的详情 , 将在今年 11 月的 ACM 计算机和通信安全会议上作介绍 。 让人担忧的是 , 这类数字广告牌鬼影攻击可能波及更多车型和导致大范围的误伤 。
推荐阅读
- 研究人员吐槽当前AI训练效率过于低下
- 气动 安全性均提升 Lazer推出新款Sphere头盔
- 谷歌发布一月安全补丁 修复Pixel音频、应用重启等问题
- 年底网络安全盛会线上召开,行业专家共话七大议题
- Edge浏览器酝酿用户账户安全追踪功能 必要时可提醒修改密码
- 扫码枪将钱扫走,却不需要密码,安全吗?
- 中国移动早有提醒!这些照片别放手机里,不然隐私、钱财都不安全
- 研究人员吐槽当前的AI训练效率不高 浪费太多精力和能源
- 用户|操作流程更优、功能更多、信息更加安全,你的“随申码”改版升级啦
- 「新书推荐」5G安全:5G生态的重要组成部分和5G发展的关键基础条件