Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了310,221,645字

该文章投稿至Nemo社区   资讯  板块 复制链接


亚马逊人脸识别技术Rekognition被质疑有种族歧视

发布于 2019/01/28 14:50 412浏览 0回复 1,669

IT之家1月28日消息 与IBM和微软的同类服务相比,亚马逊的面部分析软件在区分某些种族的性别时准确率较低。这是麻省理工学院研究人员在近日发表的一项新研究中得出的结论,该研究发现,在特定情况下,亚马逊的人脸识别技术Rekognition无法精准地确定女性和肤色较深面部的性别。

据外媒新闻。该项研究的联合作者称,在2018年进行的实验中,Rekognition错误地将19%的女性图像识别为男性,将31%的深肤色女性图像识别为男性。相比之下,微软在识别深色皮肤人群性别时,将女性错认为男性的比例只有1.5%。

▲图自亚马逊

亚马逊对这项研究提出质疑。它表示,Rekognition升级版的内测结果显示,该技术对于识别性别的正确率不存在人种差异。此外,亚马逊认为这篇论文没有清楚地说明在实验中使用的置信度阈值,即Rekognition的判断被认为是正确而必须达到的最低精确度。

在向VentureBeat提供的一份声明中,AWS的深度学习和人工智能总经理Matt Wood博士区分了这两种情况:面部分析指的是在视频或图像中辨认出脸部,并确定其一般属性;而面部识别是将单个人脸与其它视像中的人脸相匹配。他说,根据“面部分析”的结果来判断“面部识别”的准确性是“不可行的”,而且他认为这篇论文所谈论的和“客户如何使用Rekognition”是两回事。

Wood博士说:“使用最新版本的Rekognition,从议会网站和Megaface人脸数据库下载百万张图像数据,我们发现,置信度阈值设置为0.99时,误报数为零。我们通过录入和反馈来不断改进这项技术,且支持创建第三方评估、数据集、衡量基准。”

这是亚马逊第二次因为Rekognition产生的偏见而陷于争议中。

在今年夏天美国公民自由联盟的测试中,Rekognition在把25000张罪犯照片与国会议员的官方照片进行比较时,错误地将28名国会代表视为罪犯,而38%的错误匹配都是有色人种。

这个事件并非唯一。

2012年的一项研究表明,来自供应商Cognitec的面部算法,在非洲裔美国人上的错误比白种人高5%至10%,研究人员在2011年时发现,在中国,日本和韩国开发的面部识别模型难以区分白人面孔和那些东亚人。2018年2月,麻省理工学院媒体实验室的研究人员发现,微软,IBM和中国公司Megvii的面部识别错误地识别了高达7%的浅肤色女性,高达12%的深色皮肤男性和高达35%的深色皮肤女性。

弗吉尼亚大学的研究人员进行的一项独立研究发现,两个着名的研究图像集ImSitu和COCO,后者由Facebook,微软和创业公司MightyAI共同发起。在他们对体育,烹饪的描述中表现出性别偏见,和其他活动。(例如,购物的图像与女性有关,而教练则与男性有关。)

也许最臭名昭著的是,2015年,一位软件工程师报告说,Google Photos的图像分类算法将非裔美国人视为“大猩猩”。

但是也有令人鼓舞的进步迹象。

6月,微软与人工智能(AI)专家合作,修改并扩展了用于训练Face API的数据集,这是一个Microsoft Azure API,提供用于检测,识别和分析图像中人脸的算法。通过肤色,性别和年龄的新数据,它能够将皮肤较深的男性和女性的错误率分别降低20倍和9倍。

亚马逊表示,它正在通过AWS机器学习研究基金为研究项目和员工提供资金,不断致力于提高Rekognition的准确性,最近一次是通过2018年11月的重大更新。它表示对建立面部分析和面部识别的标准化测试以及与监管机构合作指导其使用非常感兴趣。

Wood博士补充说:“我们为这一领域的学术研究提供了资金,也对自己的团队进行了大量投资,而且努力还将继续。我们致力于改善面部识别、面部分析,强调解释结果时有很高的可信度,也会重点关注人工审查的作用、标准化测试等方面。我们感谢为改善这些技术做出贡献的客户和学者。"

麻省理工学院的研究结果计划于下周在夏威夷檀香山的“人工智能、伦理和社会促进会议”上公布。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/407/585.htm]

本文标签
 {{tag}}
点了个评