在人工智能发展过程中,有一项很实用,也对人类科技发展很重要的技术,就是图像识别系统,所谓对抗图像,就是可以干扰、甚至使AI图像识别系统完全失灵的图案。
在人工智能发展过程中,有一项很实用,也对人类科技发展很重要的技术,就是图像识别系统。这套系统从识别照片中的物体,到安装在无人车上认路,都起着非常关键的作用。
这也是为什么“对抗图像”这项技术相对重要的原因。所谓“对抗图像”,就是可以干扰、甚至使AI图像识别系统完全失灵的图案。
这些图案通常带有的特点就是,人类在解读这些加上了对抗图像的画面时,并不会有任何的辨识障碍,但是,却会让AI完全无法识别出画面里的图形,或是出现错误的识别结果。
通常,这类对抗图像的制作并不容易,需要研究人员事先针对AI识别系统进行详细的研究,找出识别系统辨识图像的原理,并根据此原理加入经过设计的干扰杂讯,从而导致AI识别失灵。
不过,现在研究人员发现,有更快的方法可以扰乱AI:你只需随机的复制粘贴就好了!
来自约克大学和加拿大多伦多大学的研究人员,最近发现了全新的扰乱神经网络的方法,只需在一个画面中加上与该画面场景截然不同的图案,就能导致神经网络错乱,最终无法成功识别图案。
例如,一张图片中有一个人,前方有一张桌子和一台笔记本电脑,此时,AI可以正常识别出来。但是如果突然在图片中加入一只大象,那么AI便会完全无法辨识,而且有很高几率会出现错误的判断。
之所以会造成这样的结果,跟神经网络的学习方法有关。由于在早期大量的学习过程中,AI从未看到过大象出现在客厅中的图片,因此,对于AI来说,突然出现的大象是它“不认识”的物体。
所以,AI只能通过将大象和之前学习过的客厅内长得和大象很像的物件进行关联,来判断大象是什么物体。
这种对抗图像利用了AI学习的弱点,将一个场景的辨识目标复制到另一个场景中,从而导致AI无法顺利识别,研究人员称这种方式为“目标移植”。
这样的发现,一方面代表AI还有需要进步的空间,另一方面,也代表图像识别技术目前可能会遭遇的危险。
由于过去制作对抗图像需要很高的技术成本,因此,就算知道对抗图像可以干扰AI的图像识别,通常也无需太担心路上会有人利用这种技术来干扰智能摄像头、无人车等装置的运作。
然而如今发现的方法却相对简单,没有太高的技术成本:只需利用一些比较突兀的图案就可以了。
若是这样的研究成果被别有用心的人利用的话,可以预见的是,未来AI图像识别系统将会遭遇到前所未有的挑战。
因此,研究人员也必须要加把劲,想办法及时解决这些问题才行。