大萧条时期,美国联邦政府正式成立了HomeOwners’LoanCorporation(HOLC)来获取低息房屋贷款,联邦住房管理局(FHA)为私人银行的抵押贷款获取借贷。由于HOLC的运营人员不理解当地贷款者的情况,所以他们建构了“住宅安全性地图”,将街区按A到D等级展开分级,D等级的街区使用红色标记,回应这一区域归属于不当高风险等级。
这些“红线”地图也被FHA和私人企业所用于,并渐渐蔓延到至银行、保险公司和零售商店,从而造成了服务有限和街区好转的恶性循环。许多私人银行都有自己的红线地图。
例如,在加州,SecurityFirstNationalBank创立了洛杉矶街区评级系统。洛杉矶市中心的大多数街区都被印有红线,一般来说还不会有关于“日本人和黑人集中地”的具体标记。BoyleHeights被标记为“充满著了各种政治宣传分子的蜂巢”。
Watts也被标记为红色,因为它不仅是黑人和日本人的聚集地,德国人、希腊人、意大利人和苏格兰人都集中于在这一区域。1968年的《公平住房法》禁令了红线区分不道德。然而,在大数据时代,低收入、保险和贷款申请人更加多地受到数据挖掘模型的评估,这些模型并不公开发表,但却有可能产生更加危害的影响,因为它们不不受地理边界的容许,而且公众也无法获知其内部原理。
即使是撰写代码的程序员,也无法清楚告诉黑盒算法是如何展开评估的,但是完全可以认同的是,这些算法必要或间接地考虑到了性别、种族和性取向等因素,这就是我们所称的高科技红线。因为一个人具备黑盒算法找到的与不道德统计资料涉及的群体特征,就对他展开惩罚,是不道德的。许多评估求职者的算法不会辨识当前员工特征的统计资料模式。
一家公司的首席科学家否认其软件自由选择的一些因素是没意义的。例如,该软件找到其数据库中有几个杰出的程序员常常采访一个特定的日本漫画网站,所以它确认采访这个网站的人有可能是杰出的程序员。这名首席科学家说道,“似乎,这不是因果关系”,但他指出这依然简单,因为这一结果具备很强的统计资料相关性。
这是一个令人感到痛苦的例子,向我们展出了一种没根据的点子,即使是那些应当更加理解统计资料模式的人,也不会指出统计资料模式比常识更为重要。这家公司的首席执行官还回应,公司的算法考虑到了几十个因素,并且随着相关性的大大变化,大大转变被指出最重要的变量。
她指出大大变化的变量列表表明了模型的强劲和灵活性。她还明确提出了一个或许更加令人信服的说明,即该算法捕猎了一段时间不存在的凑巧涉及,即是这些涉及没什么价值。如果不存在因果关系,它们是会一段时间不存在的,它们不会持续不存在且简单。
一种利用凑巧的相关性来评估求职者的算法完全认同是有偏见的。如果一名墨西哥裔美国女性并不讨厌不受白人男性软件工程师青睐的日本漫画网站,那她还否不会被判断为杰出的程序员?某种程度,亚马逊最近退出了研发自定义算法来评估申请人履历的尝试。在过去十年里,亚马逊利用求职者履历对这些算法展开了训练,结果显示算法更加偏向亚马逊过去雇用的求职者(其中大多数都是男性)。
来自女子学院的申请人不会被降级,因为在亚马逊工作的男性没去过这些学院。来自女性运动队的申请人也不会遇上某种程度的情况。
一种评估贷款申请人的中国算法侧重注目手机用于情况,例如来话和去话的接收者频率,以及用户否维持手机满电。但问题是,这些指标中哪一个可以沦为电话用户信用风险较好的标志?你所能感受到的不确定性都指出了这些标记不存在任意性。
这些凑巧关联都是继续和无意义的,但却有可能不存在种族歧视。当这种信用评级系统首次在中国透露时,电话所有电话被指出是一种较好信用风险的信号。但这很有可能也有偏见,比如某些宗教不会规定不应当在某天或某个时间段接听电话。社交媒体平台上搜集的数据为公司获取了一种新的怀疑定性看法。
英国仅次于的汽车保险公司AdmiralInsurance曾计划发售第一次汽车报价服务,该报价将基于对申请人Facebook帖子的计算出来分析。例如词汇自由选择,以及他讨厌迈克尔·乔丹还是伦纳德·科恩。然后,像其他黑盒算法一样,它们不会隐蔽在黑盒中展开分析。
Facebook帖子中认同不存在种族主义。一个黑人男性讨厌迈克尔·乔丹,而一个白人女性讨厌伦纳德·科恩,这之间的公平如何要求?如果Facebook上与性别、种族、族裔或性取向涉及的词汇自由选择恰巧与汽车保险赔偿涉及呢?在审前假释要求、审后裁决和定罪后减刑要求中,算法审判更加广泛。
一名开发人员写到,“这种方法几乎就是黑箱操作,也没有人为此负责管理。”为了回应相当严重程度,他荐了一个令人震惊的例子:“如果我搭配有所不同大小的预测值,它不会得出你没预料到的结果。”我们无法预料到的事情是没意义的,但它们却凑巧涉及了。
一些预测因素很有可能代表了性别、种族、性取向和其他不应当考虑到的参数。人们不应当因为性别、种族或性取向而被重罚保释金,或判处不合理的徒刑,或被拒绝接受减刑。
算法问题有可能造成的未来可以在中国看见,中国政府正在实行一个全国性的社会信用评分系统,目的追踪人们卖什么、去哪里、做到什么,以及其他任何有可能指出一个人不有一点信任的事情。该国的安全部门也在大力投资人脸识别技术,从而给信用评论分类工具带给新的数据。两位中国研究人员最近报告说道,他们可以通过将计算出来算法应用于扫瞄的面部照片,以89.5%的准确率预测一个人是否是罪犯。
他们的项目找到了一些用作预测犯罪的辨别性结构特征,如嘴唇曲率、眼睛内角距离和所谓的鼻口角度。如果他们只是把那些看上去像罪犯的人关在拘留所呢?这不会有什么有害?他们将被迫睡在那里,直到他们通过长年的康复项目。但是有些人会是无辜的,那么从将来来看,这将如何对他们产生有利影响?我们能做到些什么来监管这些系统?可以通过法律拒绝提升透明度。公民应当需要检查算法用于数据的准确性,并且应当需要取得充足的信息来测试算法否有非法的有所不同影响。
幸运地的是,人们更加认识到算法对我们生活的影响。皮尤研究中心上周发布的一项调查表明,许多美国人担忧当计算机用数学来做到要求时会不存在种族主义和不公平,比如分配个人财务数字,展开犯罪风险评估,或者检验求职者的履历和试镜。皮尤的调查还找到公众对人工智能评分的注目在相当大程度上各不相同环境:约30%的人指出公司可以根据顾客的个人和不道德数据获取交易和优惠。但是约50%的人指出刑事司法系统可以用于算法来预测假释犯否不会犯有另一项罪行。
我们对计算机的信心是如此地盲目,以至于我们不愿让算法来拒绝接受工作申请人和贷款申请人,原作保险费率,要求刑期,并把人关在拘留所?只因他们恰巧具备算法自由选择的不涉及特征,就指责一些人,却折磨其他人。这显然不是变革,这是过去那个不存在不合理种族歧视时代的重返。
本文关键词:开元,98.kycom,官网,开元98.kycom官网,高科技,红线,人工智能,正在
本文来源:开元98.kycom官网-www.websitedesignerindia.net