《纽约时报》近日发表文章,称人脸识别技术的发展近来可谓突飞猛进,目前已经有一些商业软件可以用来识别照片中人物的性别,当照片中的人是白人时,99%的情况下识别结果都是正确的,但如果照片中是黑人,错误率就比较高了。以下为原文内容:
人脸识别技术在识别不同种族和性别的人脸时,效果有多大的不同呢?一项新的研究对此进行了测量,结果表明,肤色越黑,识别率就越低。在识别黑皮肤女性时,它的错误率几乎达到了35%。
MIT媒体实验室的研究员乔伊o布兰威尼(JoyBuolamwini)进行的这项研究,显示了现实世界中的一些偏见已经渗透到了人工智能(AI)领域,因为人脸识别技术就是建立在AI之上的。
在计算机视觉技术中,颜色很重要
使用微软、IBM和Face++的人脸识别算法在识别黑人女性时,错误率高于识别白人男性。
在一组385张肤色较白的男性照片中,性别判断的错误率为1%。
在一组296张肤色较白的女性照片中,性别判断的错误率为7%。
在一组318张肤色较黑的男性照片中,性别判断的错误率为12%。
在一组271张肤色较黑的女性照片中,性别判断的错误率为35%。
在现代AI技术中,数据是关键。用来训练AI的数据有多好,AI效果就会有多好。如果训练数据中的白人男性比黑人女性多,那么它识别黑人女性的能力就比较差。
另一项研究报告显示,在一种获得广泛使用的人脸识别数据集中,75%以上的图像都是男性,80%以上是白人。
因此这项新的研究就提出了一个问题:当AI获得的投资额和采用量日益增长时,AI的公平性和问责性又该怎么保证呢?
今天,商业公司正以各种方式部署人脸识别软件,其中就包括根据社交媒体上的资料图片来对产品进行精准宣传。但是,一些公司也正在尝试把人脸识别和其他AI技术纳入到一些自动决策过程中,比如招聘和贷款决策。
乔治城大学法学院的研究人员估计,执法部门的人脸识别网络涵盖了1.17亿美国成年人的数据(警方拍摄的罪犯或嫌疑犯的面部照片),而非洲裔美国人最有可能被挑出来,因为他们在这个数据库中占的比例格外高。
人脸识别技术受到的监管还很少
犹他大学计算机科学教授SureshVenkatasubramanian说:“现在是时候了,我们要认真研究AI系统的工作方式和问题,要从社会角度向它们问责。”
之前已经有一些计算机视觉技术犯错的例子,显示存在着歧视。例如在2015年,谷歌的图像识别照片app把非洲裔美国人标记为“大猩猩”,后来谷歌为此道了歉。
哈弗福德学院的计算机科学家索列尔o弗里德勒(SorelleFriedler)说,专家们早就怀疑人脸识别软件对不同人群的效果不同。
“但这是我所知道的第一个显示存在这种不同的研究,”弗里德勒说。
28岁的布兰威尼是非裔美国计算机科学家,曾经历过人脸识别偏见。她在乔治亚理工学院就读本科时,人脸识别技术对她的白人朋友们来说效果很好,但是却无法识别出她的脸。她当时觉得这个缺陷在不久之后就会修复。
但是几年后,当她进入MIT媒体实验室时,又再次遇到了这个问题——只有当她戴上白色面具后,软件才能将她的脸识别出来。
那时,人脸识别软件正在日益走出实验室,进入主流社会。
“这是个很严肃的问题,”她回忆说。“是时候做点事情了。”
于是她将注意力转向与数字技术中的偏见作斗争。布兰威尼现在在读博,作为罗德学者和富布赖特研究员,她倡导“算法问责制”,致力于让自动化决策变得更加透明、有解释力,以及公平。
她在TED上关于“编码偏见”的演讲视频浏览量已经超过94万次,她还创立了“算法正义联盟”,这个项目旨在增进人们对这个问题的认识。
对三家公司人脸识别软件进行的实验
布兰威尼将在本月一个会议上介绍一篇最新发表的论文。她为这篇论文研究了微软、IBM和中国旷视科技这三家公司的人脸识别系统的性能,对它们识别不同肤色用户的性别的效果进行了衡量。她之所以选择这些公司,是因为它们的人脸分析软件提供了性别判断功能,并且它们的代码已经公开发布,可以用来测试。
她发现,这三家公司软件的识别效果有待提高。
布兰威尼为该测试建立了一个数据集,共有1270张人脸,使用的是女议员较多的国家的议员面部图像,包括三个以黑皮肤为主的非洲国家,以及三个以白皮肤为主的北欧国家。
然后她根据皮肤科医生使用的“六点标志体系”对非洲和北欧的这些人脸资料进行评分,对皮肤进行分类。相对于种族分类,医学分类更加客观和准确。
她再对这些人脸图像进行性别和肤色上的取舍,然后使用三家公司的软件来识别它们。微软识别黑皮肤女性的错误率是21%,而IBM和Megvii的错误率则接近35%。三家公司在识别白皮肤男性时的错误率都低于1%。
布兰威尼发布这项研究的成果之后。IBM发表声明说,该公司已经稳步改善了人脸分析软件,郑重致力于“不带偏见”和“透明度”。IBM表示将在本月推出的软件升级版在识别肤色较深的女性时,精确度会提高近10倍。
微软则表示它已经“已经采取措施来提高人脸识别技术的准确性”,并且正在投入资源,研究如何“识别、理解和消除偏见”。
布兰威尼说,旷视科技的Face++软件广泛应用于中国的在线支付和网约车服务,但该公司没有回复置评请求。
布兰威尼发布了她的数据集,供其他人使用。她称自己的研究是“解决方案的起点,基本上是第一步”。
布兰威尼还采取了进一步的行动,她与IEEE(一家大型计算机专业组织)合作,成立了一个团队,为人脸分析软件制定问责制和透明度标准。
她还定期与其他关注AI影响的学者、公共政策组织和慈善机构会面。福特基金会主席达伦o沃克(DarrenWalker)表示,这种新技术可能是一个“机会平台”,但如果它复制并放大了过去的偏见和歧视,就发挥不了作用。
沃克说:“数字世界正在进行一场公平、包容和正义之战。”(腾讯科技/云开)
精彩评论