(要闻)AI研究“重男轻女”要不得!
本篇文章1327字,读完约3分钟
自2014年以来,亚马逊的机器学习团队一直在秘密开发和使用一个电脑程序来审查求职者的简历,希望能使顶尖人才的搜索变得智能。但在专家发现新招聘引擎不喜欢女性后,亚马逊终于在去年初解散了研究团队。
提高效率需要推广机器学习应用
自动化是亚马逊在电子商务中占据主导地位的关键,无论是在仓库还是在促进定价决策方面。由于低成本计算能力的激增,机器学习在技术领域越来越受欢迎。对于这家全球最大的在线零售商来说,亚马逊的智能招聘实验开始于一个关键时刻。
根据监管文件,自2015年6月以来,亚马逊的全球员工人数增加了两倍多,达到57万多人。为了缓解人力资源部急剧增加的工作压力,提高工作效率,亚马逊爱丁堡工程中心成立了研发团队,目标是开发人工智能技术,快速捕捉网络信息,寻找值得招聘的候选人。
该公司的实验性招聘工具使用人工智能为求职者提供一星至五星的评级,类似于购物者对亚马逊产品的评级。研究人员希望招聘软件能达到“软件输入100份简历,吐出前五名,然后公司就可以先录用”的目的。
人工智能招聘软件“重男轻女”
亚马逊的电脑模型经过培训,了解了过去10年提交给公司的简历,找出了其固有的模型,并据此对应聘者进行了考核。但从2015年开始,亚马逊意识到招聘系统在评估软件开发等技术岗位的应聘者时,并不是性别中立的。因为大部分申请人是男性,这反映了男性在整个科技行业占主导地位的现实。
研究团队创建了500个计算机模型,专注于特定的工作职能和职位。他们教每个模型识别过去候选人简历中出现的大约50,000个术语。这些算法对于it应用中的常用技能,比如编写各种计算机代码的能力,意义不大。相反,这种技巧对于男工程师简历中用“执行”、“捕捉”等常用动词描述自己的考生是有好处的。
事实上,亚马逊的系统已经通过自学得出男性候选人更可取的结论。系统惩罚含有“女”字的简历,如“女棋社队长”。该系统还降低了两所全女生大学毕业生的评分。
亚马逊试图更新该程序,试图使其对特定术语保持中立。然而,这并不保证机器不会根据其他方法对可能具有歧视性的候选人进行分类。
性别偏见不是唯一的问题。支持模型判断的数据也存在问题,这意味着不合格的候选人往往会被推荐到各种工作岗位。亚马逊最终在去年年初解散了这个团队,因为高管们对这个项目失去了信心。
算术公平之路:任仲之路
根据人才软件公司“专业创造者”(Professional Creator)在2017年进行的一项调查,大约55%的美国人力资源经理表示,人工智能将在未来五年成为他们工作的一个常规部分。
长期以来,雇主一直梦想着利用技术来扩大招聘网络,减少对招聘人员主观意见的依赖。但亚马逊的失败案例为越来越多寻求自动化招聘流程的大公司提供了一个教训。
卡内基梅隆大学的机器学习专家表示,要保证算法的公平性、真正的可理解性和可解释性,还有很长的路要走。
麻省理工学院技术评论(MIT Technology Review)在这次事件的报告中指出,我们不能认为人工智能天生就没有偏见。在有偏差的数据上训练系统意味着算法也会变得有偏差。如果这种不公平的人工智能招聘计划在实施前没有被发现,它将延续商业中长期存在的多样性问题,而不是解决这些问题。
标题:(要闻)AI研究“重男轻女”要不得!
地址:http://www.huarenwang.vip/new/20181024/11.html
免责声明:莆田新城网是福建莆田地区知名的本地城市生活门户网站,莆田新城网所著的部分内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,莆田新城网将予以删除。