赖可 发自 亚龙湾
量子位 报道 | 公众号 QbitAI
这周四,美国NIST发布的研究报告给出了这样的结果。
甚至在一些算法中,亚裔和非裔美国人被误认的可能性比白人高100倍。
对于一向“政治正确”先行的美国,可想而知该结果带来的“爆炸性”。
还有一个有趣的结果,像来自商汤、旷世这样的亚洲算法,白种人和黄种人之间的误判差距就小一些。
美国官方机构权威检测
研究检查了由 99家公司,学术机构和其他开发人员自愿提交的189种算法。包括了大多数业界领先的系统,来自主要的技术公司和承包商,包括Idemia,英特尔,微软,松下,商汤和 Vigilant Solutions。
量子位查阅这次提交检查的公司名单,发现没有谷歌
检测结果
2、在所有种族中,美洲原著民的假阳率最高;一对多匹配,非洲裔美国女性的假阳性率更高。
4、 不同国家开发的算法表现不同。美国开发的算法中,亚裔、非裔和土著的错误率很高。亚洲开发的算法中,白人和亚洲人的错误率差距较小。
“偏见”还有长尾影响
一对一匹配一般用于手机人脸解锁或护照检查。
一对多匹配用于确定某张照片是否在一个数据库中有匹配项,经常用于警察搜索嫌疑人。
一对一匹配出现错误可能会导致人脸无法解锁,给生活带来麻烦。但是一对多匹配的错误可能后果更严重,就会让警察把无辜的人列入嫌疑名单。
这份报告的主要作者Patrick Grother表示,
例如,去年MIT实验室的一项研究也得出了类似的结果。
亚马逊等公司之前批评了这些研究,称这些研究使用了过时的算法,或者是系统使用不当。
美国俄勒冈州的参议员Ron Wyden在一份声明中说,
任何部署新技术的公司或政府有责任仔细检查其产品是否存在偏见和歧视,至少要在软件中彻底检查是否有Bug。
网友讨论:讲伦理也要讲技术现状
有网友尝试对”白人的正确率高“这一结果进行解释。可能是白人的面部特征差异(比如眼睛和头发的颜色)本身就比较大?
即使现在,当咖啡师看着他想不起来他的订单时,他依旧会体验到激烈的情绪。
现在他知道这不是他的问题,而是他身上原住民血统的原因。
我们生活在一个充满偏见的世界,而新技术的到来,会放大现实世界的偏见吗?
参考资料
https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software
https://www.washingtonpost.com/technology/2019/12/19/federal-study-confirms-racial-bias-many-facial-recognition-systems-casts-doubt-their-expanding-use/
https://edition.cnn.com/2019/12/19/tech/facial-recognition-study-racial-bias/index.html
http://gendershades.org/overview.html
— 完—
大咖齐聚!量子位MEET大会精彩回放
量子位 MEET 2020 智能未来大会精彩回放来袭!李开复、倪光南、景鲲、周伯文、吴明辉、曹旭东、叶杰平、唐文斌、王砚峰、黄刚、马原等AI大咖与你一起读懂人工智能。扫码观看回放吧~ ~
跟大咖交流 | 进入AI社群
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
喜欢就点「在看」吧 !返回搜狐,查看更多
责任编辑: