IBM在其Watson OpenScale软件中增加了一项功能,可以检测并减轻性别和种族偏见。这些推荐的偏置监视器是Watson OpenScale的最新成员,它于2018年9月推出,旨在为业务用户和非数据科学家提供监控其AI和机器学习模型的能力,以便更好地了解性能。该软件有助于监控算法偏差并提供AI输出的解释。

到目前为止,用户根据自己的知识手动选择模型的哪些特征或属性来监视生产中的偏差。但据IBM称,通过推荐的偏差监测器,Watson OpenScale现在将自动识别模型中是否存在已知的受保护属性,包括性别,种族,婚姻状况和年龄,并建议对其进行监控。

更重要的是,IBM表示它正在与Promontory的监管合规专家合作,继续扩展这一属性列表,以涵盖数据监管中最常引用的敏感人口统计特征。

人工智能是一个快速发展的领域,特别是在英国,据报道,该国是该领域的主要开发商之一,但这种增长往往被人们担心该技术的发展加剧了不平等现象。“随着监管机构开始更加关注算法偏见,组织清楚地了解其模型的表现以及是否为某些群体产生不公平的结果变得越来越重要,”Susannah Shattuck说道, Watson OpenScale。

今年3月,数据伦理与创新中心(CDEI)宣布与内阁办公室的种族差异部门合作,调查算法决策中的潜在偏见。

随着算法在社会中变得越来越普遍,它们帮助人们的潜力也在增加。然而,最近的报告显示,人类的偏见可能会蔓延到算法中,从而最终伤害了它本来应该帮助的人。