欢迎您到 IT09数码网首页!
您当前的位置:it09数码网资讯正文

迄今最全面研讨发现即便尖端人脸辨认算法仍然存在成见

放大字体  缩小字体 2019-12-22 17:56:40  阅读:1567 作者:责任编辑NO。邓安翔0215

现在,人脸辨认体系在法律、边境操控和其他社会运用范畴的运用正在迅速增长。之前就有几项学术研讨标明,人脸辨认算法在盛行的商业体系存在种族和性别成见。

最近,美国联邦政府一项新的研讨证明了这些前期成果。依据美国国家标准与技能研讨院(NIST)的研讨,世界上许多顶尖的面部辨认算法都存在年纪、种族和民族成见。研讨显现,现在市场上出售的算法辨认某些特定人群的过错率是辨认其他人群的100倍。

图 | 边境差人查看护照(来历:麻省理工科技谈论)

NIST标明,他们的“试验数据”标明,年纪、性别和种族等特征会影响“大多数”算法的准确性。该小组测验了来自99个安排的189种算法,这些算法为全球大多数面部辨认体系供给支撑。

据《华盛顿邮报》报导,立法者称该研讨成果“令人震惊”,并呼吁美国政府重新考虑运用该技能来维护边境安全的方案。

“令人震惊”的研讨成果

NIST研讨了现在在美国政府运用中运用的四组面部数据: 美国居民的面部相片;请求移民福利人士的请求相片;请求签证人员的请求相片,以及穿越边境进入美国的请求相片。

总的来说,数据库包含了 1827 万张图片,触及 849 万人,是迄今为止最全面的评价。

这项研讨测验了“一对一”辨认和“一对多”查找。“一对一”便是把或人的相片与数据库中同一个人的另一张相片进行匹配,它一般是用于解锁智能手机或法律部分查看护照;“一对多”则是将某个人与一个更大数据库中的单个记载匹配,这经常被差人部分用来在查询中辨认嫌疑犯。

在一对多的查找中,非裔美国妇女最常被过错地辨认,而亚洲人、非裔美国人、印第安人和太平洋岛民在一对一的查找中经常被过错辨认。儿童和老年人的过错辨认率也相对更高。在某些情况下,亚裔和非裔美国人被过错辨认的概率是白人的 100 倍。一般来说,中年白人男性的准确率最高。

人脸辨认还没做好预备

研讨成果进一步证明,世界上许多最先进的面部辨认算法仍不具有在法律和国家安全等要害范畴运用的条件。NIST 的研讨是迄今为止最全面的评价,查询成果对这些体系是否应该持续如此广泛地运用提出了疑问。

NIST 研讨测验的算法是这些安排自愿提交的。但向当地警方和联邦查询人员出售Reko面部辨认软件的亚马逊并没有提交相关算法。此前就有研讨对亚马逊面部辨认体系的准确性提出了忧虑。

2018 年 7 月,美国公民自由联盟(American Civil Liberties Union)测验了亚马逊的面部辨认体系,成果体系将28名国会议员辨认成了罪犯。人工智能研讨人员呼吁亚马逊中止出售其“有缺点”的体系。但亚马逊宣称,它的软件不是 NIST 的测验可以容易剖析的(虽然具有相似产品的科技公司提交算法是没问题的),其股东也抵抗了要求约束Reko出售的呼声。

要尊重人们的安全和隐私

专家标明,这些算法中的误差可以终究靠运用更多样化的练习数据来削减。例如,研讨人员发现,亚洲国家开发的人脸辨认算法体现更好,在亚洲人和白人之间的过错率不同很小。

但是,即便处理了算法成见,也不能处理面部辨认的一切问题,由于这项技能的运用方法没有尊重人们的安全和隐私。

(来历:麻省理工科技谈论)

Joy Buolamwini 是一名人工智能研讨人员,他在上一年承受媒体采访时标明,他一直在研讨面部辨认的成见问题。“开展面部辨认技能并将其兵器化有什么优点?技能运用不能脱离其社会影响,”他说。

现在,需求方针制定者来找出监管这些技能的最佳方法。NIST还敦促人脸辨认的开发者进行更多的研讨,以削减这些成见。

修改:李亚山

参阅:

https:///2019/12/20/21031255/facial-recognition-algorithm-bias-gender-race-age-federal-nest-investigation-analysis-amazon

https:///2018/7/26/17615634/amazon-rekognition-aclu-mug-shot-congress-facial-recognition

https:///f/614986/ai-face-recognition-racist-us-government-nist-study/

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!