现在的位置: 首页资讯>正文
人工智能算法偏见的根源究竟在不在“人类”?
2018年03月22日 作者: 暂无评论 303+ 0

guge1

作者讨论各种不同的偏见可能在有意无意之间被加进人工智能与机器学习应用中…

我们都曾经看过电影里机器控制了世界,而人类被毁灭的场景。好在这些电影只是娱乐,现实生活中,这些牵强的场景是不会发生的。然而,一个更应该注意的实际问题是:算法的偏见(algorithmic bias)。

所谓的“算法偏见”是指在看似没有恶意的程序设计中,却带着设计者或开发人员的偏见,或者所采用的数据是带有偏见的。结果当然带来了各种问题,例如,Google搜寻被曲解、合格的考生无法进入医学院就学、聊天机器人在推特(Twitter)上散布种族主义和性别歧视信息等。

guge2

网络“键盘侠”力量太强大,微软聊天机器人Tay上线1天就被教成种族歧视,微软紧急让她“收声”…

算法偏见造成最棘手的问题之一是,从事程序设计的工程师,即便本身没有种族、性别、年龄歧视等倾向,也有可能造成偏见。人工智能(AI)本质上就是为了自行学习而设计,有时它的确会出错。当然,我们可以在事后进行调整,但最好的解决办法是,一开始就防止它发生。那么,如何才能让人工智能没有偏见呢?

讽刺的是,人工智能中最激动人心的可能性之一就是:一个没有人类偏见的世界。例如,当涉及员工招募时,透过算法可以让男性和女性在申请同一份工作时获得平等的待遇,或者在警务工作中避免种族歧视的发生。

不管人们是否意识到,人类创造的机器,确实反映了人们如何看待这个世界,因此,也会有类似的刻板印象和世界观。由于人工智能越来越深入于生活中,我们必须重视这个问题。

人工智能面临的另外一个挑战是,偏见并不是只有单一形式,而是存在各种类型的,其中包括互动偏见、潜意识偏见、选择偏见、数据导向的偏见以及确认偏见。

各种AI偏见类型

“互动偏见”是指用户因为自己与算法的互动方式,而使算法产生的偏见。当机器被设定向周围环境学习时,它们不能决定要保留或者丢弃哪些数据、什么是对的或错的。相反地,它们只能使用提供给它们的数据——不论是好的、坏的,还是丑的,都只能依据此基础做出判断。前面提到的微软(Microsoft)聊天机器人Tay便是这类偏见的一个例子,它因为受到一个网络聊天社群的影响,开始变得有种族歧视了。

“潜意识偏见”是指算法将错误的观念,与种族和性别等因素连结起来。例如,当搜寻一位医生的照片时,人工智能会先呈现男性医生的图片,而非女性医师,反之亦然,当搜寻护士的时候,也会发生类似的情况。

“选择偏见”是指因数据而影响的算法,导致过于放大某一族群或群组,从而使该算法对其有利,而代价是牺牲其他群体。以员工招募为例,如果人工智能被训练成只辨识男性的履历,那么女性求职者在申请过程中,就很难成功。

“数据导向的偏见”是指用来训练算法的原始数据已经存在偏见了。机器就像孩子一样:他们不会质疑所接收到的数据,只是单纯地寻找其中的模式。如果数据一开始就被扭曲,那么其输出的结果,也将会反映出这一点。

最后一种是“确认偏见”,这和数据导向的偏见类似,它会偏向那些先入为主的信息,这类偏见影响人们如何收集信息,以及如何解读信息。例如,如果你觉得在8月份出生的人比其他月份出生的人更有创意,那么就会倾向于搜寻强化这种想法的数据。

当我们知道有这么多偏见可能渗入人工智能系统的例时,似乎让人十分忧心。但重要的是认清事实,这个世界本身就是有偏见的,因此,在某些情况下,我们对于人工智能所提供的结果并不会感到惊讶。然而,不应该如此,我们需要一个针对人工智能算法和系统进行测试与验证的流程,以便在开发期间和布局之前及早发现偏见。

算法和人类不同的是,它不会说谎,因此,假使结果是有偏见的,那一定是有原因的,也就是和算法得到的数据有关。人类可以说谎解释不聘雇某人的原因,但人工智能可不会这样。而采用算法,我们就可能知道什么时候会出现偏见,并对其进行调整,以便将来能克服这些问题。

人工智能会学习,也会犯错。通常只有在实际使用算法后,才能发现所有内在的偏见,因为这些偏见被放大了。与其把算法看成是一种威胁,不如视其为一个能解决所有偏见问题的好机会,并在必要的时候加以纠正。

我们可以透过开发系统,来发现存在偏见的决策,并及时采取措施。与人类相比,人工智能特别适合采用贝叶斯(Bayesian)方法,来确定某种假设的机率,并摒除所有可能的人类偏见。这很复杂,但是可行的,尤其是考虑到人工智能的重要性,而且在未来几年之间,它只会越来越重要,这是责无旁贷的事情。

随着人工智能系统的发展,重要的是必须了解它的运作方式,才能透过设计让它具有意识,以及避免将来可能出现的偏见问题。别忘了,尽管人工智能发展非常迅速,但仍处于起步阶段,还有很多需要学习和改进的地方。这方面的调整将会持续一段时间,与此同时,人工智能会变得更加聪明,未来将会有越来越多的方法可以克服偏见等问题。

对于科技产业而言,不断地质疑机器的运作方法及原因,是相当重要的,大多数的人工智能都像是黑箱作业,决策过程都是隐蔽的,但人工智能的公开及透明度,则是建立信任和避免误解的关键。

现阶段有很多研究都协助辨识偏见的产生,如Fraunhofer Heinrich Hertz研究所的研究,他们着重于辨别不同类型的偏见,例如前面所提到的偏见,以及更“低层级”的偏见,还有一些在人工智能训练和发展过程中可能出现的问题。

另一方面,需要思考的是无监督训练(unsupervised training),现在,大多数的人工智能模型都是透过受监督的训练发展而成的,也就是只收集了人类已标注的数据。而无监督的训练使用不具任何卷标的数据,算法必须自行分类、辨识和汇整数据。这种方法通常比受监督的学习速度更慢好几个数量级,但这种方法相对上限制了人为介入,因此,能够消除任何有意识或者无意识的人为偏见,进而避免对数据产生影响。

在基础架构方面也有很多事情项可以改进,在开发新产品、网站或者功能时,科技业者需要各方面的人才,多元化会为算法提供各式各样的数据,但也会在无意间让这些数据带有偏见。如果有人去分析输出结果的话,那么发现偏见的可能性将相当高。

此外,算法稽核还有其他的作用。2016年,美国卡内基梅隆大学(Carnegie Mellon University)的一个研究小组在网络求职广告中发现了算法偏见,他们列出了在网络、Google广告上找工作的人员名单后显示,男性在高收入工作中所占比例是女性的近六倍。该研究小组的结论是,如果先进行内部算法稽核,将有助于减少这类偏见。

简单来说,机器的偏见就是人的偏见。人工智能的偏见有很多种,但实际上,它的来源只有一个:人类。

关键就在于科技公司、工程师和开发人员等,应该采取有效的措施,以避免在无意中产生带有偏见的算法,透过算法稽核并随时保持公开透明,我们就有信心能让人工智能算法摆脱偏见。

原文地址:http://www.eeboard.com/news/rengongzhineng-43/ ‎

搜索爱板网加关注,每日最新的开发板、智能硬件、开源硬件、活动等信息可以让你一手全掌握。推荐关注!

【微信扫描下图可直接关注】

aiban

相关文章

全球首款超小型嵌入式人工智能处理卡——针对边缘计算的UP AI Core评测

云端的不可控性以及不易用性已经成为目前移动电子设备拓展人工智能服务的掣肘。针对便携式、小型化的电子设备,实现边缘计算的人工智能芯片市场越来越大,比如有服务型机器人中集成的GPU、手...

人和人吵架常见, 但你见过 AI 和 AI 吵架吗?

最后我们认为如果辩论或类似的方法有效,那么即使以后人类无法直接监督 AI 系统,它也会使未来的人工智能系统更安全,因为这种方法可以使 AI 系统与人类的目标和价值取向保持一致。 即使对于...

谷歌I/O 2018大会爆料:Android P将增加时间管理控件

谷歌I/O 2018大会爆料:Android P将增加时间管理控件 谷歌I/O通常会围绕新一代Android系统展开,今年的版本名称为Android P,不出意外的话,上述控件应该就是Android P的新特性之一

谷歌I/O大会前瞻:除了Android P和AI还有这些惊喜!

至于Android Auto,这款软件也已经存在了几年,但它最近增加了对Pixel和Nexus设备的无线支持。今年1月份,谷歌宣布它的Google Assistant软件将很快为Android Auto提供语音功能,因此I/O上很...

LG手机业务转型:重回中国走性价比手机的道路

大家已经有多久没见过 LG 的手机了?从 LG G5 往后,LG 就再也没在中国市场发布过手机产品了。这其中固然有中国市场竞争激烈的因素,但 LG 自身的原因也不少。所以今天《韩国先驱报》报道, ...

给我留言

您必须 [ 登录 ] 才能发表留言!