科技中立,但人制造出来的AI却可能带有偏见或歧视。自去年底以来AI偏见(AIBias)就成为学术界及人工智能行业疾呼需要解决的问题,软件巨擘IBM在美国时间19日宣布将IBMResearch研发的偏见检测工具—AIFairness360工具包开源,包括超过30个公平性指标(fairnessmetrics),和9个偏差缓解算法,研究人员和开发者可将工具整合至自己的机器学习模型里,检测并减少可能产生的偏见和歧视。
目前谈论较多的AI偏见情况像是性别歧视、种族歧视,例如面部侦测算法在识别白人时的准确率比识别黑人高许多,男性跟女性类别也存在类似问题,让软件识别犯罪嫌犯人选、企业挑选求职者时,也曾引发歧视问题。
另外,AI偏见也超出了性别和种族,越来越多AI被应用在银行信用评等、保险费用计算,而且还影响决策者做出批准或拒绝贷款、甚至是要不要赔偿保险的决定,但这些都可能因为数据集不完善或缺乏多元性,让AI做出不合宜的判断结果,对社会造成不小的影响。
因此IBM率先选择了3个领域的应用,作为AIFairness360工具包的示范教学,这三个领域分别是信用评等、医疗保健支出评分、面部识别中的性别偏见。以及9种算法,包括预处理优化、Reweighing、对抗性偏见等。
IBM 提出开源 9 个 AI 偏见防御算法(图片来源:IBM)
一直以来AI的黑盒子问题不仅困扰着研究人员及企业,同时也限制了AI迈向大规模部署,IBMWatsonData及AI副总裁RitikaGunnar就表示,人工智能模型缺乏信任和透明度正在阻碍企业的部署,这是一个真正的问题。为了解决相关难题,行业有几个趋势,一是发展非监督式学习(UnsupervisedLearning),像是FacebookAI首席科学YannLeCun、卡内基梅隆大学(CMU)教授ZacharyLipton等人都积极推动非监督式学习。另一个方向就是透过工具来提高AI可解释性及透明度。
除了IBM,谷歌在上周也开源了一项名为“What-IfTool”的探测工具。谷歌在官方博客上指出,建构有效的机器学习系统,光是训练模型是不够的,应更好地理解模型,像是数据点的变化将如何影响模型的预测?它对不同的群体有不同的表现,例如被边缘化的人群?数据集的多样性又是如何?What-IfTool为开源TensorBoardWeb应用程序的一项新功能,让用户在不需要编写代码的情况下分析机器学习模型。
另外,Facebook在5月的年度开发者大会上宣布了检测偏见的工具—FairnessFlow,如果一个算法根据用户的种族、性别或年龄做出不公平的判断,它会自动发出警告。此外,根据《麻省理工科技评论》先前的报导指出,微软也正在研究侦测偏见的自动化工具,终极目标是要做到自动检测机器学习中的不公平性,帮助使用人工智能的企业不会无意中歧视某些人。
世界经济论坛(WorldEconomicForum)人工智能和机器学习负责人KayFirth-Butterfield日前就提出警告:“现在的焦点是关于人工智能的道德问题,因为一些算法存在‘明显的问题’”,解决问题的方法是让西方的科技产业“更加多样化”。
精彩评论