日消息,众所周知,自动驾驶汽车依赖摄像头识别道路标志安全行驶,但美国加州大学圣克鲁斯分校最近发现,这些摄像头存在类似“提示词注入”的漏洞,足以让无人机降落在不安全的屋顶、让自动驾驶车辆冲向行人。
依托摄像头来识别世界的自动驾驶汽车以及无人机,但如今却发现,仅仅一张有着特殊制作考究的标牌,便能够致使它们做出存在高度危险性的具体行为动作产生。这样一种攻击手段,是借助了大模型对于图像以及文字的深度理解所运用的特定方式,并不需要通过采取侵入系统软件的繁琐做法,就能实实在在地在现实世界当中产生相应真实的起到触发影响的效果作用生出反应涌现。
“视觉 - 语言”大模型在自动驾驶汽车以及无人机方面的使用越来越频繁,以此来应对复杂环境,这类模型具备同时看懂摄像头所拍到的画面以及文字信息的能力能相应理交通标志或者路况指示进而做出驾驶举措或者飞行决策通过这种技术机器更能够适应现实世界的不确定性。
然而,这样的结合却引来了新的安全方面的问题。在AI系统把视觉图像跟文字指令关联起来去进行决策之际,其判断的过程有可能被外部输入的特定的信息给误导。研究人员恰恰是从这个结合的点作为切入点,寻找到了系统性的安全弱点。

有这样一种攻击,它被赋予了“CHAI”这个名称,也就是针对具身AI的命令劫持。这种攻击的核心原理在于,它会对AI对于视觉指令的正常理解进程进行劫持。而且,攻击者并不需要像传统黑客所作的那般,去破解软件或者植入病毒,其操作门槛是很低的。
攻击主要被划分成两个阶段,其一,算法会针对目标AI的决策逻辑展开分析,从中找寻出最能够误导它的文字组合,像“安全降落”或者“左转”这类,与此同时,会对这些文字的视觉呈现方式予以精心设计,针对颜色、字体大小以及在标牌上的位置进行调整,以此保证能够被摄像头清晰捕捉并且优先处理。
研究团队开展了多项测试,这些测试是在模拟环境以及真实环境当中进行的。在无人机紧急降落的场景之下,他们于人群密集的屋顶放置了写有“可安全降落”字样的标牌,其结果是,无人机存在超过68%的概率去选择错误的降落地点,在某些仿真环境里,错误率甚至高于90%。
测对于自动驾驶系统来讲,攻击成功的比率也已然达到了81.8%。在通常正常的情形之下,车辆假使碰到行人就必定会减速,要不然就是进行刹车的动作。然而,一旦攻击者把“左转”的标牌给高高举起的时候,车辆就会错误地认定这是符合法律法规的道路方面给出的指令,进而才做出有着危险性的动作来的。

此类攻击并非仅仅限定在英语环境范围之内,研究团队针对中文、西班牙语,以及英语跟西语相混合的文本开展了测试,攻击依旧具备有效性,这充分显示出,基于多语言训练的视觉 - 语言大模型广泛存在着此类漏洞。
有着不同影响的对于各异AI系统的攻击程度不一样,在针对某个目标检测系统展开的测试里,AI要从画面里识别出车为警车,然而却被一辆写着特定文字的普通车辆给欺骗了,其成功率竟然高达95.5%,这表明了漏洞是广泛存在着的。

为表明攻击具备可行性,研究人员把优化后的攻击标志打印出来,将其放置于真实的道路附近,还放置在真实的建筑附近展开测试。结果呈现,在真实的物理条件之下,攻击成功率仍旧超过87%。
这意谓着,攻击并非仅存于实验室的模拟环境之中,于现实世界里,在红绿灯之旁,在道路标识牌之上,或者在建筑物的表面,皆存在着被恶意加以利用的可能性,攻击者仅需以低成本制作出一块标牌。
当前,针对这种攻击的防御工作存有着挑战。有一种思路是 ,当AI系统接收外部视觉文字指令之际 ,增添额外的上下文验证 ,诸如结合GPS定位 ,或者高精度地图 ,又或者与其他传感器数据进行交叉比对。

再一种办法乃是于模型训练时期增添更多对抗性样本,使得 AI 能够学会辨别并忽视那些带有矛盾或者误导性文字的图像。产业界以及学术界必须开展合作,构建针对此类新型攻击的测试标准以及防护框架。
当机器那如同“眼睛”以及“大脑”的部分会被一张简单的标牌儿给欺骗之时,我们究竟该怎么样去构建真正可信可靠的智能系统呢?针对这项研究所揭示出来的风险,你觉得最为紧迫的应对举措应当是什么呢?欢迎在评论的区域分享你个人的看法,要是感觉这篇文章具备有价值的这种情况,那就请点赞并且转发从而让更多的人能够看到。