现在的位置: 首页资讯>正文

究竟现在如何让人工智能摆脱偏见?

2018年03月13日 作者: 暂无评论 503+ 0

  robot typing on conceptual keyboard我们都曾经看过电影里机器人控制了世界,而人类被毁灭的场景。好在这些电影只是娱乐,现实生活中,这些牵强的场景是不会发生的。然而,一个更应该注意的实际问题是:算法的偏见(algorithmic bias)。

所谓的“算法偏见”是指在看似没有恶意的程序设计中,却带着设计者或开发人员的偏见,或者所采用的数据是带有偏见的。结果当然带来了各种问题,例如,Google搜寻被曲解、合格的考生无法进入医学院就学、聊天机器人在推特(Twitter)上散布种族主义和性别歧视信息等。  robot typing on conceptual keyboard

网力量太强大,微软聊天机器人Tay上线1天就被教成种族歧视,微软紧急让她“消音”…

算法偏见造成最棘手的问题之一是,从事程序设计的工程师,即便本身没有种族、性别、年龄歧视等倾向,也有可能造成偏见。人工智能(AI)本质上就是为了自行学习而设计,有时它的确会出错。当然,我们可以在事后进行调整,但最好的解决办法是,一开始就防止它发生。那么,如何才能让人工智能没有偏见呢?

讽刺的是,人工智能中最激动人心的可能性之一就是:一个没有人类偏见的世界。例如,当涉及员工招募时,通过算法可以让男性和女性在申请同一份工作时获得平等的待遇,或者在警务工作中避免种族歧视的发生。

不管人们是否意识到,人类创造的机器,确实反映了人们如何看待这个世界,因此,也会有类似的刻板印象和世界观。由于人工智能越来越深入于生活中,我们必须重视这个问题。

人工智能面临的另外一个挑战是,偏见并不是只有单一形式,而是存在各种类型的,其中包括互动偏见、潜意识偏见、选择偏见、数据导向的偏见以及确认偏见。

各种AI偏见类型

“互动偏见”是指用户因为自己与算法的互动方式,而使算法产生的偏见。当机器被设定向周围环境学习时,它们不能决定要保留或者丢弃哪些数据、什么是对的或错的。相反地,它们只能使用提供给它们的数据——不论是好的、坏的,还是丑的,都只能依据此基础做出判断。前面提到的微软(Microsoft)聊天机器人Tay便是这类偏见的一个例子,它因为受到一个网络聊天社群的影响,开始变得有种族歧视了。

“潜意识偏见”是指算法将错误的观念,与种族和性别等因素连结起来。例如,当搜寻一位医生的照片时,人工智能会先呈现男性医生的图片,而非女性医生,反之亦然,当搜寻护士的时候,也会发生类似的情况。

“选择偏见”是指因数据而影响的算法,导致过于放大某一族群或群组,从而使该算法对其有利,而代价是牺牲其他群体。以员工招募为例,如果人工智能被训练成只辨识男性的履历,那么女性求职者在申请过程中,就很难成功。

“数据导向的偏见”是指用来训练算法的原始数据已经存在偏见了。机器就像孩子一样:他们不会质疑所接收到的数据,只是单纯地寻找其中的模式。如果数据一开始就被扭曲,那么其输出的结果,也将会反映出这一点。

最后一种是“确认偏见”,这和数据导向的偏见类似,它会偏向那些先入为主的信息,这类偏见影响人们如何收集信息,以及如何解读信息。例如,如果你觉得在8月份出生的人比其他月份出生的人更有创意,那么就会倾向于搜寻强化这种想法的数据。

当我们知道有这么多偏见可能渗入人工智能系统的例时,似乎让人十分忧心。但重要的是认清事实,这个世界本身就是有偏见的,因此,在某些情况下,我们对于人工智能所提供的结果并不会感到惊讶。然而,不应该如此,我们需要一个针对人工智能算法和系统进行测试与验证的流程,以便在开发期间和布局之前及早发现偏见。

我们可以这样来消除偏见……

算法和人类不同的是,它不会说谎,因此,假使结果是有偏见的,那一定是有原因的,也就是和算法得到的数据有关。人类可以说谎解释不聘雇某人的原因,但人工智能可不会这样。而采用算法,我们就可能知道什么时候会出现偏见,并对其进行调整,以便将来能克服这些问题。

人工智能会学习,也会犯错。通常只有在实际使用算法后,才能发现所有内在的偏见,因为这些偏见被放大了。与其把算法看成是一种威胁,不如视其为一个能解决所有偏见问题的好机会,并在必要的时候加以纠正。

我们可以通过开发系统,来发现存在偏见的决策,并及时采取措施。与人类相比,人工智能特别适合采用贝叶斯(Bayesian)方法,来确定某种假设的机率,并摒除所有可能的人类偏见。这很复杂,但是可行的,尤其是考虑到人工智能的重要性,而且在未来几年之间,它只会越来越重要,这是责无旁贷的事情。

随着人工智能系统的发展,重要的是必须了解它的运作方式,才能通过设计让它具有意识,以及避免将来可能出现的偏见问题。别忘了,尽管人工智能发展非常迅速,但仍处于起步阶段,还有很多需要学习和改进的地方。这方面的调整将会持续一段时间,与此同时,人工智能会变得更加聪明,未来将会有越来越多的方法可以克服偏见等问题。

对于科技产业而言,不断地质疑机器的运作方法及原因,是相当重要的,大多数的人工智能都像是黑箱作业,决策过程都是隐蔽的,但人工智能的公开及透明度,则是建立信任和避免误解的关键。

现阶段有很多研究都协助辨识偏见的产生,如Fraunhofer Heinrich Hertz研究所的研究,他们着重于辨别不同类型的偏见,例如前面所提到的偏见,以及更“低层级”的偏见,还有一些在人工智能训练和发展过程中可能出现的问题。

另一方面,需要思考的是无监督训练(unsupervised training),现在,大多数的人工智能模型都是透过受监督的训练发展而成的,也就是只收集了人类已标注的数据。而无监督的训练使用不具任何卷标的数据,算法必须自行分类、辨识和汇整数据。这种方法通常比受监督的学习速度更慢好几个数量级,但这种方法相对上限制了人为介入,因此,能够消除任何有意识或者无意识的人为偏见,进而避免对数据产生影响。

在基础架构方面也有很多事情项可以改进,在开发新产品、网站或者功能时,科技业者需要各方面的人才,多元化会为算法提供各式各样的数据,但也会在无意间让这些数据带有偏见。如果有人去分析输出结果的话,那么发现偏见的可能性将相当高。

此外,算法稽核还有其他的作用。2016年,美国卡内基梅隆大学(Carnegie Mellon University)的一个研究小组在网络求职广告中发现了算法偏见,他们列出了在网络、Google广告上找工作的人员名单后显示,男性在高收入工作中所占比例是女性的近六倍。该研究小组的结论是,如果先进行内部算法稽核,将有助于减少这类偏见。

简单来说,机器的偏见就是人的偏见。人工智能的偏见有很多种,但实际上,它的来源只有一个:人类。

关键就在于科技公司、工程师和开发人员等,应该采取有效的措施,以避免在无意中产生带有偏见的算法,通过算法稽核并随时保持公开透明,我们就有信心能让人工智能算法摆脱偏见。

原文地址:http://www.eeboard.com/news/rengognzhineng-15/

搜索爱板网加关注,每日最新的开发板、智能硬件、开源硬件、活动等信息可以让你一手全掌握。推荐关注!

【微信扫描下图可直接关注】1-aibanwang127

发表评论

相关文章

Kiva机器人如何做到如此可靠?我来拆给你看!

长期以来,它们的运转完全依赖于一支支每人每天步行上万米的人力大军。这是一个非常低效、昂贵、容易出错的过程。在机器人AGV系统出现之前,这方面最先进的解决方案是让员工在工厂里骑自行车。

人工智能的泡沫要破了? AI 创业公司或将迎来一场艰难的“战争”

目前国内的AI公司有4000多家,企业间的竞赛日趋激烈激烈,在资本、商业化和人才方面均面临诸多挑战。与此同时,有关“人工智能的泡沫要破了”的争论甚嚣尘上, AI 创业公司或将迎来一场艰难的“...

华为麒麟980正式亮相国内:七项世界第一(全球首款)

麒麟980项目研发耗资超过3亿美元,2015年就已经立项开始,包括联合台积电进行7nm工艺研究、定制特殊基础单元和构建高可靠性IP、SoC工程化验证,最终定型、量产,前后投入36多个月,1000多名...

要逆天!美国科学家用AI从太空中识别肥胖社区

你今天燃烧卡路里了吗?近年来,随着我们生活水平的提高和日常习惯的改变,肥胖渐渐成为了令无数人困扰的难题。为了实现减肥的目标,人们曾使出十八般武艺,动感单车、瑜伽、针灸、减肥药、...

三星CEO加大对AI的投入,并指出不需要担心AI风险

9月2日消息,一位三星电子的老总已经透露称,三星在人工智能领域投入了数十亿美元的资金,而且希望说服人们完全不需要担心AI风险。他本周在柏林IFA科技展上的这些评论完全与史蒂芬-霍金和伊...