现在的位置: 首页资讯>正文
没想到机器人的世界里也存在性别歧视,谷歌做出了解释
2017年08月31日 作者: 暂无评论 66+ 0

一直以来,通过研究表明,人类研发的机器也能学习到人类看待这个世界的视角,无论其是否有意。对于阅读文本的人工智能来说,它可能会将“医生”一词与男性优先关联,而非女性,或者图像识别算法也会更大概率的将黑人错误分类为大猩猩。

2015年,Google Photos应用误把两名黑人标注为“大猩猩”,当时这一错误意味着谷歌的机器学习还处于“路漫漫其修远兮”的状态。随后,谷歌立即对此道歉,并表示将调整算法,以修复该问题。近日,作为该项错误的责任方,谷歌正在试图让大众了解AI是如何在不经意间永久学习到创造它们的人所持有的偏见。一方面,这是谷歌对外PR(公共关系)的好方式,其次,AI程序员也可以用一种简单的方法来概述自己的偏见算法。

在该视频中,谷歌概述了三种偏见:

互动偏差 :用户可以通过我们和其交互的方式来偏移算法。例如,谷歌把一些参与者召集其起来,并让他们每人画一只鞋,但多半用户会选择画一只男鞋,所以以这些数据为基础的系统可能并不会知道高跟鞋也是鞋子。

潜在偏差 :该算法会将想法和性别、种族、收入等不正确地进行关联。例如,当用户在Google Search搜索“医生”时,出现的大多为白人男性。

AI001

此前 Quarts 发布了一则相关新闻,该报道称,经普林斯顿大学最新研究成果表明,这些偏见,如将医生与男性相关联,而将护士与女性关联,都来自算法被教授的语言的影响。正如一些数据科学家所说:没有好的数据,算法也做不出好的决策。

选择偏差 :据了解,用于训练算法的数据量已经大大超过全球人口的数量,以便对算法实行更好的操作和理解。所以如果训练图像识别的数据仅针对白人而进行,那么得到的数据也只能来自AI的认定。

AI002

图片来源: Qaurtz

去年6月, “青年实验室”(英伟达、微软等科技巨擘均是该实验室的合作伙伴和支持者)举办了一次Beauty.ai的网络选美大赛。该比赛通过人工智能分析,征集了60万条记录。该算法参考了皱纹、脸部比例、皮肤疙瘩和瑕疵的数量、种族和预测的年龄等等因素。最后结果表明,种族这一因素比预期发挥了更大的作用:在44名获奖者当中,其中有36人为白人。

事实上,关于算法中含有性别、种族偏见的研究和报道,早已有之。而据此前报道,要消除这些偏见,并不容易。正如微软纽约研究院的高级研究员Hanna Wallach所说:『只要机器学习的程序是通过社会中已经存在的数据进行训练的,那么只要这个社会还存在偏见,机器学习也就会重现这些偏见。』

原文链接:http://www.eeboard.com/news/ai-88/ 

搜索爱板网加关注,每日最新的开发板、智能硬件、开源硬件、活动等信息可以让你一手全掌握。推荐关注!

【微信扫描下图可直接关注】

原版二维码

原文链接:

成天喊着要实现自动驾驶,国内这交通状况自己心里没点儿数?

新型3D打印机 用塑料掺加碳纤维做原料,打印出来的东西坚固程度堪比钢铁!

做了苹果线十多年的品胜怒了:至今未拿不到苹果MFi认证,将起诉苹果索赔1元!

带有“听觉”的智能梳子,随时改变你的梳头模式,还自带App哦!

为什么基于NVMe协议的走PCI-E总线的M.2接口的SSD才是地表最强固态硬盘?

  

相关文章

英伟达最新AI研究让晴天变雪天,人工智能可以欺骗视觉?
NVIDIA GitHub

在未来,人工智能会给更多领域带来惊喜。

传感器数据有助于推动AI的发展,AI系统也扩展我们处理数据的能力
769726267c124d1c9aa27d465abe2cf0

现在我们都对AI很熟悉了,也知道算法的完善离不开海量的数据。数据量越大,算法给出的结果可能就越精准,越“如人意”。人对世界的感知,很大一部分是基于我们的感官获取的“数据”。

总结AI时代的技术变革经验
ai

人工智能离我们的生活越来越近,只需一部手机,便可以有效解决社交沟通、交易支付、出行交通等一系列问题:从语音识别、声音模仿到机器学习、智能硬件,在移动端实现人工智能也已成为大势所...

百度地图全新版本体验:融合Al语音后,导航出行十分便捷
baiduditu

作为一名百度地图的“忠实粉丝”,每次打开APP,看到欢迎页面这句话-“科技让出行更简单”时都不太感冒,毕竟这种类似的术语对于“专注科技20年”的小编来说已经见惯不惯。

英特尔、英伟达、AMD的恩恩怨怨及对AI格局的畅想
NVIDIA

过去一段时间里,每当英伟达以胜利者姿态大讲AI故事、为GPU唱赞歌时,或偶尔以挑衅的姿态怼英特尔时,英特尔表现得较为隐忍低调;面对外界对摩尔定律失效、转型缓慢等方面的质疑,英特尔也较...

给我留言

您必须 [ 登录 ] 才能发表留言!