微信
投稿

对抗 AI 偏见巨擘动起来,IBM 研究院开源 9个AI偏见防御算法

2018-09-25 18:57 来源: DeepTech深科技 作者:詹子娴

科技中立,但人制造出来的AI却可能带有偏见或歧视。自去年底以来AI偏见(AIBias)就成为学术界及人工智能行业疾呼需要解决的问题,软件巨擘IBM在美国时间19日宣布将IBMResearch研发的偏见检测工具—AIFairness360工具包开源,包括超过30个公平性指标(fairnessmetrics),和9个偏差缓解算法,研究人员和开发者可将工具整合至自己的机器学习模型里,检测并减少可能产生的偏见和歧视。

目前谈论较多的AI偏见情况像是性别歧视、种族歧视,例如面部侦测算法在识别白人时的准确率比识别黑人高许多,男性跟女性类别也存在类似问题,让软件识别犯罪嫌犯人选、企业挑选求职者时,也曾引发歧视问题。

另外,AI偏见也超出了性别和种族,越来越多AI被应用在银行信用评等、保险费用计算,而且还影响决策者做出批准或拒绝贷款、甚至是要不要赔偿保险的决定,但这些都可能因为数据集不完善或缺乏多元性,让AI做出不合宜的判断结果,对社会造成不小的影响。

因此IBM率先选择了3个领域的应用,作为AIFairness360工具包的示范教学,这三个领域分别是信用评等、医疗保健支出评分、面部识别中的性别偏见。以及9种算法,包括预处理优化、Reweighing、对抗性偏见等。

对抗 AI 偏见巨擘动起来,IBM 研究院开源 9个AI偏见防御算法

IBM 提出开源 9 个 AI 偏见防御算法(图片来源:IBM)

一直以来AI的黑盒子问题不仅困扰着研究人员及企业,同时也限制了AI迈向大规模部署,IBMWatsonData及AI副总裁RitikaGunnar就表示,人工智能模型缺乏信任和透明度正在阻碍企业的部署,这是一个真正的问题。为了解决相关难题,行业有几个趋势,一是发展非监督式学习(UnsupervisedLearning),像是FacebookAI首席科学YannLeCun、卡内基梅隆大学(CMU)教授ZacharyLipton等人都积极推动非监督式学习。另一个方向就是透过工具来提高AI可解释性及透明度。

除了IBM,谷歌在上周也开源了一项名为“What-IfTool”的探测工具。谷歌在官方博客上指出,建构有效的机器学习系统,光是训练模型是不够的,应更好地理解模型,像是数据点的变化将如何影响模型的预测?它对不同的群体有不同的表现,例如被边缘化的人群?数据集的多样性又是如何?What-IfTool为开源TensorBoardWeb应用程序的一项新功能,让用户在不需要编写代码的情况下分析机器学习模型。

另外,Facebook在5月的年度开发者大会上宣布了检测偏见的工具—FairnessFlow,如果一个算法根据用户的种族、性别或年龄做出不公平的判断,它会自动发出警告。此外,根据《麻省理工科技评论》先前的报导指出,微软也正在研究侦测偏见的自动化工具,终极目标是要做到自动检测机器学习中的不公平性,帮助使用人工智能的企业不会无意中歧视某些人。

世界经济论坛(WorldEconomicForum)人工智能和机器学习负责人KayFirth-Butterfield日前就提出警告:“现在的焦点是关于人工智能的道德问题,因为一些算法存在‘明显的问题’”,解决问题的方法是让西方的科技产业“更加多样化”。

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

精彩评论

暂无评论...
验证码 换一张
取 消

热门作者

东方

简介: 天马行空的文字之旅。

邮箱: liutingting03@hczyw.com

简介: 保持期待,奔赴山海。

邮箱: zhuangjiaxin@hczyw.com

松月

简介: 脚踏实地,仰望星空。

邮箱: wuxiaqing@hczyw.com

合作咨询:15889679808               媒体咨询:13650668942

广州地址: 广州市越秀区东风东路745号紫园商务大厦19楼

深圳地址: 广东省深圳市龙华区五和大道星河WORDC座5F506

北京地址: 北京市朝阳区小关东里10号院润宇大厦2层

慧聪电子网微信公众号
慧聪电子网微信视频号

Copyright?2000-2020 hczyw.com. All Rights Reserved
慧聪电子网    粤ICP备2021157007号