在社交媒体的应用于场景中,人工智能算法模型的偏差造成搜寻结果或用户体验不欠佳经常经常出现,甚至可以说道是无法回避,如人们熟悉的大数据杀熟等。可以意识到,当AI应用于到医疗保健、自动驾驶汽车、刑事司法或刑事处置等场景中时,更加多牵涉到生命、公平、道德等的问题将不会经常出现。此前,亚马逊用AI聘用经常出现了性别歧视问题就是有力的证明。
在世界每一个角落部署AI,这有可能造成持续的系统性种族歧视,为此MIT计算机科学人工智能实验室(CSAIL)研究人员建构了一种增加AI偏差,同时又不减少预测结果准确性的方法。据麻省理工学院教授DavidSontag所言,传统方法有可能建议将与多数人群涉及的数据集随机化,作为解决问题有所不同人群不公平结果的一种方法,但这种方会权衡较低的预测准确性,以构建所有人群的公平性,关键就是指代表性严重不足的群体中挖出更加多数据。
例如,研究人员找到,在一个案例中,AI模型将女性标记为低收入,男性标记为低收益,这是失礼客观性的,因此他们通过将数据集中于女性的代表性提升10倍,超过了将不精确结果的数量增加了40%的效果。Sontag在一份声明中得出这一设计的非常简单说明:“我们指出这是一个工具箱,可协助机器学习工程师弄清楚他们的数据要回答什么问题,以便临床他们的系统为什么不会作出不公平的预测。”他更进一步说明说道:“在这项工作中,我们指出预测的公平性应当在数据的背景下展开评估,并且样本量严重不足或未测量的预测变量引发的不公平性应当通过数据搜集来解决问题,而不是通过约束模型来解决问题。
”诚然,预测准确性的差异往往归咎于数据缺少或不能测量的变量因素,因此该研究团队建议在展开公平标准评论之前,对模型偏差,模型方差和结果噪声展开AI模型分析。对于这一研究的成本,Sontag回应,“这说明了并分离出来了数据搜集严重不足和模型自由选择对公平性的有利影响。
为了执着公平,其成本也要划入到数据搜集和模型研发的投资。但在某些十分最重要的应用程序中,其益处往往多达成本。“在Sontag与其博士团队一起编写的论文中,有这一方法的详尽说明。据报,该成果将于下个月在蒙特利尔的神经信息处理系统(NIPS)上发布。
本文关键词:开元98.kycom官网,【,开元,98.kycom,官网,】,性别,歧视,有救,MIT,在
本文来源:开元98.kycom官网-www.websitedesignerindia.net