忽悠AI图像识别系统的新方法:随机复制并粘贴

忽悠AI图像识别系统的新方法:随机复制并粘贴,第1张

忽悠AIss="superseo">ss="superseo">图像识别系统的新方法:随机复制粘贴 来源:百度站长工具应用作者:图普高科出版社:本文由“图普高科”整理自AI图像识别系统可以通过复制粘贴随机对象进行忽悠。你不必总是构建复杂的优化算法来搞乱图像识别系统软件——你可以只在任何部分添加目标。在大多数情况下,电阻模型可以用来改变一些清晰度,以扭曲图像,从而使整个目标识别不正确。一些例子包括用一张小纸片将香蕉和苹果的图像粘贴到全自动面包机中,或者戴上傻乎乎的近视眼镜来欺骗面部识别系统软件。乌龟被误认为自动步q的成功案例,证明了愚弄人工智能技术是多么容易。众所周知,加拿大约克大学和多伦多大学的科学研究人员现在已经证实,将一个物体图像复制粘贴到原始图像中,可以毫无招数地欺骗神经网络。整体目标迁移他们使用 Tensorflow对象识别API中的模型进行了一系列实验。Tensorflow对象识别API是Google 技术工程师为实现图像识别的日常任务而构建的开源框架。API是建立在张量流编码基础上的另一层,描述了卷积和神经网络的架构。科学研究人员从一幅图像中获得一个对象,并将其添加到另一幅图像的不同部分,然后将照片输入API。arXiv在毕业论文中将这项技术称为“对象移植”。在第一个案例中,科学研究人员在一个坐在卧室里的男人的图像上添加了一个小象的图像。该模型在不同一般目标附近输出一系列彩色包围盒,计算不同一般目标识别结果的概率。识别整体目标是人和笔记本的概率为99%,识别桌椅的概率为81%,识别挎包的概率为67%,识别书和杯子的概率为50%。到目前为止,这款车型的主要性能还是不错的。但是当大象的图片被添加到同一个图像中时,模型识别就开始出现紊乱。当大象图片贴在鲜红的窗帘布上时,模特突然越来越没有信心辨认出图片上的桌椅。评分从81%下降到76%,但桌面上有杯子的概率从50%上升到54%。更令人费解的是,当大象图片被立即复制粘贴到一个人的头上时,却被识别为桌椅。当一个动物的图片被粘贴在场景的不同部分时,它只能在两个区域被正确识别:当它被放置在笔记本和书架的顶部时。 当大象的图片粘贴在场景的不同部分时,API无法正确识别所有内容。很多时候是完全认不出来的。图片:罗森菲尔德等。即便如此,API仍然有可能正确识别对象,因为在一些大型客厅中,很少有大象与常见对象混合的图像。“神经网络从未在同一张照片中看到两种不同类型的物体,因此我们不太可能希望神经网络能够在检测中成功解决这样的图像,”毕业论文写道。但这个测试并不是一个不合理的测试,它凸显了神经网络的脆弱性,没有它们的训练数据,它们无法轻易融入新的图像。科研人员写道:“大家都认为规定训练中不同类型的物体成对出现是不科学的,无论是实践还是基础理论。”"1/212最后一页

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/768403.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-02
下一篇 2022-05-02

发表评论

登录后才能评论

评论列表(0条)

保存