我们应不应该使用人脸识别

我们应不应该使用人脸识别,第1张

戈麦斯是28名美国国会议员中的一员,与被逮捕的人的照片完全匹配,这是去年美国公民自由联盟对亚马逊重新认知计划进行测试的一部分。

亚马逊被警方使用工具中将近有40%的虚假匹配,涉及有色人种。

这些发现被公民自由团体,立法者甚至一些科技公司越来越多的关注,随着技术变得更加主流,面部识别可能会伤害少数人种。iPhone和Android手机上已经开始使用面部识别技术进行解锁,警察、零售商、机场和学校也在慢慢接触它。但是研究表明,面部识别系统更难以识别女性和肤色较黑的人,这可能导致灾难性的误报。

“这是一个例子,说明技术在执法领域的应用如何对已经过度监管的社区造成有害后果,”北加州ACLU的技术和公民自由律师Jacob Snow说。

面部识别有它的好处。马里兰州的警察利用这项技术在首都公报的大规模q击案中找出了一名嫌犯;在印度,它帮助警察在四天内识别了近3000名失踪儿童;Facebook使用该技术为视障人士识别照片中的人物;它已成为解锁智能手机的便捷方式。

但这项技术并不完美,而且还有一些尴尬的失误。谷歌照片曾将两个黑人识别成大猩猩。在中国,一位女士声称她的同事能够使用Face ID 解锁她的iPhone X。当执法机构使用面部识别来识别犯罪嫌疑人或在抗议中揭露人们时,被误认的风险就会增加。

“当执法部门使用这项技术确定某人是否因犯罪而被通缉时,那就是完全不同的情况,”戈麦斯说,“错误的身份有可能会导致执法部门和那个人之间发生致命的互动。”

立法者对ACLU的调查结果并不感到震惊,并指出科技工作者通常更多地考虑如何使某些东西发挥作用,而不是关于他们构建的工具如何影响少数人种。

科技公司通过改进用于培训面部识别系统的数据来回应批评,但与民权活动家一样,他们也呼吁更多的政府监管,以帮助保护技术不被滥用。乔治敦大学法学院的研究人员估计,每两名美国成年人中就有一名被用于执法人员使用的面部识别网络。

亚马逊不赞同ACLU研究,认为组织在测试识别系统时使用了错误的方法。

机器学习是一个非常有价值的工具,可以帮助执法机构,虽然可能存在误判,我们不能因为设定了错误的温度导致烤焦了披萨而扔掉烤箱。”人工智能总经理Matt Wood在亚马逊网络服务公司的一篇博文中辩解道。

识别问题

与白人男性相比,面部识别服务可能更难以识别少数民族和女性,这有多种原因。

乔治城法学院隐私与技术中心的高级助理克莱尔加维说,科技工作者用来训练计算机识别面孔的公开照片可能包括比白人更多的白人。例如,如果一家公司使用名人数据库中的照片,那么它就会倾向于白人,因为好莱坞的少数人种人数不足。

Garvie说,科技公司的工程师,大多是白人,也可能在不知不觉中设计面部识别系统,以更好地识别某些种族。研究表明,人们更难以识别另一个种族的面孔,并且“跨种族偏见”可能会渗入人工智能。她还补充说,对于深色皮肤缺乏色彩对比的问题,以及女性使用化妆品来掩盖皱纹或头发不同的问题,都存在挑战。

根据麻省理工学院媒体实验室的研究人员进行的一项研究,微软,IBM和Face ++制作的面部识别系统很难确定像非洲裔美国人这样的黑皮肤女性的性别。35%的黑皮肤女性的性别会被误认为是高加索人等1%的浅肤色男性。

麻省理工学院于1月份发布的另一项研究表明,亚马逊的面部识别技术比微软或IBM确定黑皮肤女性性别的工具更难。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2538094.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-05
下一篇 2022-08-05

发表评论

登录后才能评论

评论列表(0条)

保存