10月11日,根据外媒报道称亚马逊的机器人学习专家发现其使用的招聘引擎不喜欢女性。因此,该项目被亚马逊关掉了。
据悉,最早在2014年,亚马逊的这支团队一直在开发电脑程序用来筛选审查求职者的简历,核心的目的是将寻找顶尖人才的任务或者说招聘任务自动化。亚马逊的实验性招聘工具使用AI为求职者打分,分数从一星到五星不等。开发该程序的工程师曾表示,亚马逊想要将这一程序打造成引擎,给该程序100份简历,程序会列出前五人,其就会聘用列出的人才。
2015年,亚马逊发现他们使用AI系统的时候并未对软件开发人员和其他技术职位求职者进行性别中立的评估。采用的模型训练方式是通过观察过去10年被提交给亚马逊公司的简历中找出固有模式,以此筛选审查求职者。但在过去的10年中,提交给亚马逊的简历大部分来自男性,这就导致了亚马逊使用的AI系统告诉自己男性求职者更受到青睐。
不仅如此,该AI系统还对女性持有一定偏见。该系统在简历中含有“女子象棋俱乐部队长”这类简历的语句中含有“女子”的词汇非常敏感。此外,该系统还下调了两所女子学院的毕业生评级。
因此,虽然亚马逊招聘人员表示他们从来没有仅依靠排名来做出判断,但在去年年初亚马逊最终还是选择了解散团队,高管们对该项目感到非常失望。
随着人工智能技术的发展和商业化落地的逐渐广泛,一方面AI技术显著提升了效率与成本,也带给了人们更加便捷的生活;但一方面AI作恶、歧视的现象也不断引发争议与讨论。
本次AI招聘系统对女性的偏见的本质在于机器学习的局限性。卡内基梅隆大学教授尼哈尔·沙赫认为,要实现利用科技扩大招聘网络减少对人类招聘者主观意见的以来,开发者还有很多工作要做。在他开来:“如何确保算法是公平的,如何确保算法是真正可以解释的,实现这些目标都还十分遥远。”
但科技公司们仍在努力。
虽然解散了这一团队,但亚马逊在爱丁堡工程中心成立了新的团队,其所属的人员也已经增加到了12人。其目标是开发能够迅速在网络上搜索并发现有价值应聘者的AI系统。目前,该团队已经创建了500个计算机模型,它们重点关注特定的工作功能和地点。团队开发者将教授每个模型辨认出过去求职者建立上的5万个术语。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)