当前位置:主页>产 业>业界新闻>

在图片中加入噪点就能骗过Google最顶尖的图像识别AI


 

  近期,一群来自华盛顿大学网络安全实验室(NSL)的计算机专家发现,恶意攻击者可以欺骗Google的CloudVision API,这将导致API对用户提交的图片进行错误地分类。

  近些年来,基于AI的图片分类系统变得越来越热门了,而这项研究针对的就是这种图片分类系统。现在,很多在线服务都会采用这种系统来捕捉或屏蔽某些特殊类型的图片,例如那些具有暴力性质或色情性质的图片,而基于AI的图片分类系统可以阻止用户提交并发布违禁图片。

  虽然这种分类系统使用了高度复杂的机器学习算法,但是研究人员表示,他们发现了一种非常简单的方法来欺骗Google的Cloud Vision服务。

  Google的Cloud Vision API存在漏洞

  他们所设计出的攻击技术其实非常简单,只需要在一张图片中添加少量噪点即可成功欺骗Google的Cloud Vision API。其中的噪点等级可以在10%到30%范围内浮动,同时也可以保证图片的清晰度,而且这足以欺骗Google的图片分类AI了。
 


 

  向图片中添加噪点其实也非常的简单,整个过程并不需要多么高端的技术,一切只需要一个图片编辑软件即可实现。

  研究人员认为,网络犯罪分子可以利用这种技术来传播暴力图片、色情图片或恐怖主义宣传图片。除此之外,Google自己的图片搜索系统也使用了这个API,这也就意味着,当用户使用Google进行图片搜索时,很可能会搜索到意料之外的图片。

  解决这个问题的方法很简单

  研究人员表示,修复这个问题其实跟攻击过程一样的简单,所以Google的工程师们完全没必要紧张。
 


 

  为了防止这种攻击,Google只需要在运行其图片分类算法之前,对图片中的噪点进行过滤就可以了。研究人员通过测试发现,在噪点过滤器的帮助下,Google的Cloud Vision API完全可以对图片进行适当的分类。

  后话

  研究人员已经将这种攻击的完整技术细节在其发表的论文中进行了描述,感兴趣的用户可以阅读这篇论文【传送门】。已经值得注意的是,这群研究人员在此之前也使用过类似的方法来欺骗Google的Cloud Video Intelligence API【参考资料】。注:他们在一个视频中每两秒就插入一张相同的图片,最后Google的视频分类AI会根据这张不断重复出现的图片来对视频进行分类,而分类的依据并不是视频本身的内容。


(责任编辑:宋编辑)

分享到:

更多
发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
  • 微笑/wx
  • 撇嘴/pz
  • 抓狂/zk
  • 流汗/lh
  • 大兵/db
  • 奋斗/fd
  • 疑问/yw
  • 晕/y
  • 偷笑/wx
  • 可爱/ka
  • 傲慢/am
  • 惊恐/jk
用户名: 验证码:点击我更换图片
资料下载专区
图文资讯

《2016年中国网站安全报告》发布 共发现960

《2016年中国网站安全报告》发布 共发现9600万个漏洞

由中国信息通信研究院与中国通信企业协会联合举办,中国通信企业协会通信网络安全专业...[详细]

在图片中加入噪点就能骗过Google最顶尖的图

在图片中加入噪点就能骗过Google最顶尖的图像识别AI

近期,一群来自华盛顿大学网络安全实验室(NSL)的计算机专家发现,恶意攻击者可以欺骗G...[详细]

智能电表成数字攻击点

智能电表成数字攻击点

即便没在公共事业部门工作,也很难忽略掉迈向智能电表的缓慢进程。公共事业雇员上门抄...[详细]

微软越来越慢了:花了6个月才修复Office严

微软越来越慢了:花了6个月才修复Office严重漏洞

北京时间4月28日早间消息,微软半年前获悉Word软件的一个漏洞,随后花了半年时间才发...[详细]

工信部:主动融入网络强国战略目标

工信部:主动融入网络强国战略目标

4月27日从工信部获悉,4月25-26日,由中国通信企业协会与中国信息通信研究院联合举办...[详细]

返回首页 返回顶部