不久前,某知名品牌汽车被曝其自动驾驶系统无法识别白色货车箱体这样类似于“一堵墙”的障碍物。在自动驾驶中,行人、车辆被漏检或者未能及时被检测到,都可能导致交通事故的产生。此外,安防漏检危险人物与物品也可能导致安全隐患。这些风险都提示,AI视觉的安全性值得重视。
在研究AI视觉稳定性的过程中,阿里安全图灵实验室的研究人员札奇发现,AI视觉还有一个盲区:利用算法自动鉴别图片关键信息,并巧妙删除,就像给图片“打码”一样,AI视觉系统就会无法识别该图片。最近,这项研究成果被AI顶会ICCV 2021收录。
札奇的研究源于逛商场看到乐高玩具迸发的灵感。当时,她有一个疑问:“人眼如何识别‘马赛克’式样的玩具?还有早期的超级马里奥,虽然只是由几个简单像素组成,人却可以正确识别这种抽象的表达。AI模型面对‘马赛克’式的图片,能正确识别吗?”
札奇进行了验证。她发现,传统对图片“加工”以骗过AI的方法是给图片加上“噪音”,相当于在当前图片上针对模型"乱涂乱画",让AI无法识别,但原图片本身的关键信息没有丢失,只要用“橡皮擦”擦一擦,AI依然能识别。如果反向操作,删除图片的关键信息,就像打“马赛克”,图片的关键信息已经丢失,那么AI无论如何也难以识别。这意味着,针对“打码攻击”,难以有防御措施。
如下图所示,给猫咪图片加上噪声,去除噪声后,AI模型依然能认出这是一只猫咪。相反,基于信息丢失的对抗攻击在去噪声的操作下基本没什么变化,AI视觉模型“识别无能”。
图说:传统加噪音(上)与“打码”删信息(下)对比,“打码”攻击“无法还原”。
专注对AI的对抗样本和模型安全性进行研究的阿里安全高级算法专家越丰提醒,除了AI视觉场景,真实场景中也可能存在这种对抗攻击,例如针对某知名PS软件,只要提供具备对抗攻击性质的JPEG量化表,就能产出有“攻击性”的图片。
此外,在实际场景中,图片信息丢失是常见现象,例如用户将图片以JPEG形式上传到网络,就有一定的信息丢失,可能不经意间就会制造一个“对抗样本”。越丰认为,这对当前内容安全场景的AI识别而言,都是不小的挑战。
“比如有人将涉黄赌毒图片以损失部分信息的形式上传到网络,人眼依然能领会含义,但AI却没能正确识别,这对构建清朗、健康网络环境而言,就是一种对抗。”越丰举例道,AI安全行业应该警惕这种类型的对抗。
当然,“致盲AI”不是研究人员的目标,研究人员最终还是想发现AI模型的脆弱性,进一步提升AI安全。“在AI安全前沿技术上进行探索,一是为了让AI更安全,二是为了让AI助力安全,三是为解决具体社会问题寻找提效的新途径。”阿里安全图灵实验室负责人薛晖提醒,相比“事后弥补”,安全应前置,从源头守卫安全,对前沿技术进行研究布局,以科技创新造就最好的网络安全。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )