图片来自图宠:百度站长工具申请已获批。
作者:图普高科
记者:在本文中,由图普高科编写的程序来自人工智能图像识别系统,可以通过复制和粘贴随机对象来欺骗。
你不必总是构建复杂的优化算法来搞乱图像识别系统的软件――你可以在任何地方添加目标。
在大多数情况下,电阻模型可以用来改变一些清晰度,以扭曲图像,从而使整个目标识别不正确。一些例子包括用一张小纸片将香蕉和苹果的图像粘贴到全自动面包机中,或者戴上傻乎乎的近视眼镜来欺骗面部识别系统软件。乌龟被误认为自动步q的成功案例,证明了愚弄人工智能技术是多么容易。
众所周知,加拿大约克大学和多伦多大学的科学研究人员现在已经证实,将一个物体图像复制粘贴到原始图像中,可以毫无招数地欺骗神经网络。
总体目标移殖他们利用 Tensorflow物体识别API中的模型进行了一系列实验。Tensorflow对象识别API是Google 技术工程师为实现图像识别的日常任务而构建的开源框架。API是建立在张量流编码基础上的另一层,描述了卷积和神经网络的架构。
科学研究人员从一幅图像中获得一个对象,并将其添加到另一幅图像的不同部分,然后将该图像输入API。arXiv在毕业论文中将这项技术称为“对象移植”。
在第一个案例中,科学研究人员在一个坐在卧室里的男人的图像上添加了一个小象的图像。该模型在不同一般目标附近输出一系列彩色包围盒,计算不同一般目标识别结果的概率。它将总体目标确定为概率为99%的人和笔记本、概率为81%的桌椅、概率为67%的手提袋和概率为50%的书籍和杯子。
到目前为止,这款车型的主要性能还是不错的。然而,当大象的图片被添加到同一个图像中时,模型识别就开始出现混乱。当大象图片贴在鲜红的窗帘布上时,模特突然越来越没有信心辨认出图片上的桌椅。评分从81%下降到76%,但桌面上有杯子的概率从50%上升到54%。
更令人费解的是,当大象图片被立即复制粘贴到一个人的头上时,却被识别为桌椅。当小动物的图片被粘贴在场景的不同部分时,它只能在两个区域被正确识别:当它被放置在笔记本和书柜的顶部时。
当大象的图片粘贴到场景的不同部分时,API无法正确识别所有内容。很多时候是完全认不出来的。
图片来源于:Rosenfeld等。即便如此,API仍然有可能正确识别对象,因为在一些大型客厅中,很少有大象与常见对象混合的图像。“神经网络从未在同一张图片中看到两种不同类型的物体,因此我们不太可能希望神经网络能够在检测中成功解决这样的图像,”毕业论文写道。
但这个测试并不是一个不合理的测试,它凸显了神经网络的脆弱性,没有它们的训练数据,它们无法轻易融入新的图像。科研人员写道:“大家都认为,规定不同类型的物体在训练中成对出现是不科学的,无论是在实践中还是在基础理论中。”
人工智能技术难以识别反复图像当科研精英团队复制图像中已有的总体目标时,API仍然无法识别。
这个模型可以很容易地从原图中筛选出趴在显示屏前键盘上的猫。众所周知,当一张猫的图片被添加到图片中,并再次进行调整,使其看起来像是立即被放置在第一只猫的后面时,猫的脚板被识别为狗,电脑键盘的一角被识别为书。
精英团队用不同的图像重复实验。结果牛头变成了马,棒球棒变成了笔记本,手提袋变成了杯子——现在你看。
再加上图像中存在的同一个目标也有同样的实际效果。图片来自:罗森菲尔德等。
毕业论文陈述从定义中得到的永远不属于真实整体目标区域的特征,会使图像中的物体越来越无序。“ROI内部的定义和对整体目标有重大利益的区域ROI外部的定义都是这样的。”
这是所有图像分类模型都会遇到的困难。它们都是根据给定区域中定义的一系列特征来识别目标,但这意味着来自其他目标的定义可以与之重合,从而混淆它们。
科学研究人员将这一难题称为“部分阻断”。“部分遮挡被广泛认为是物体检测中的一个主要挑战。成功处理一些堵塞问题将是一个好运气。”
“这里转换的图像可以被视为反样本的组合,其中一些小图像(人们无法察觉)的影响会导致神经网络的输出结果发生巨大变化,”论文总结道。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)