爱板网的新老用户,告诉你一个好消息,爱板网(www.eeboard.com)将在近期并入电路城(www.cirmall.com)网站,我们将爱板网中丰富的开发板资料与电路城大量优质的电路方案相结合,旨在为广大工程师朋友打造一站式的技术资源库,你所需的电路设计技巧、开发板评测、电子产品拆解、硬件解决方案,都可以在合并后的电路城网站找到,助力你的技能进阶。让我们一起期待一个全新的体验吧!
X
现在的位置: 首页资讯>正文

【视频】欺骗AI图像识别系统,其实没那么难

2019年04月24日 作者: 暂无评论 189+ 0

人工智能监控的兴起极为令人担忧。政府集体追踪和识别公民的能力可能会终止公众的匿名性。但是,正如研究人员一次又一次地表明的那样,有很多方法可以“欺骗”这些系统。

最新的例子来自比利时鲁汶大学的一组工程师。在上周在预印本服务器arXiv上分享的一篇论文中,这些学生展示了简单的印刷图案如何能够“欺骗”人工智能系统,该系统旨在识别图像中的人物。

这些学生打印出特别设计的彩色斑块并将其挂在脖子上,从AI的角度来看,这可能相当于“隐形斗篷”。

正如研究人员写道:“我们相信,如果我们将这种技术与精致的服装模拟结合起来,我们就可以设计出一种T恤印花,可以让一个人对自动监控相机几乎不可见。”

这可能看起来很奇怪,但它实际上是AI世界中一个众所周知的现象。这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的弱点来“诱骗它们看到”不存在的东西。

在过去,对抗性的例子被用来欺骗面部识别系统。然而许多研究人员警告说,对抗性的例子具有潜在的危险性。例如,它们可以用来欺骗自动驾驶汽车,或者它们可以欺骗用于识别疾病的医疗AI视觉系统。这可以用于医疗欺诈或甚至故意造成伤害。

对于最近的研究 - 我们通过谷歌研究员David Ha发现 - 一些警告确实适用。最重要的是,学生开发的对抗彩色斑块只能欺骗一个名为YOLOv2的特定算法。这不适用于谷歌或其他科技公司开发的现成的计算机视觉系统,当然,如果一个人正在查看图像时,它也不起作用。

 

新品资讯:

 

推荐活动:

 

邀请您加入爱板工程师群(群号135513647)
更多活动、咨询、技术交流

发表评论

相关文章

加州大学首次实现用神经元模拟芯片执行仿生任务

模拟人类大脑的电子芯片已经算不上新鲜事物——IBM已于去年就发布了达到量产级别的神经突触模拟芯片SyNAPSE——但要说利用这样的芯片来执行大脑任务,则还尚未有过先例。不过加州大学圣巴巴拉分...