(文章来源:教育新闻网)
这就是人工智能的问题。令人印象深刻的是重新创建了智能,但是在工具中调用情感却相去甚远。谷歌刚刚宣布,其使用AI工具的“谷歌云服务”将不再根据性别来标记人们。AI工具通过将人的图像标记为“男人”或“女人”来识别个人的性别。尽管这是一种针对机器学习模型的训练方法,但Google仍在使用它以避免性别偏见。
在发送给公司开发人员的电子邮件中,该公司表示将更改Cloud Vision API工具。该工具使用AI扫描图像,分析和识别人脸,地标以及任何其他可识别的东西。但是,对于人类而言,该工具将不再标识性别,而是将图像标记为“人”。人工智能工具在用于面部识别技术时经常受到批评,因为它们无法正确识别变性者或正常性别规范之外的人。一些工具发现也很难识别有色人种。
有很多情况下,人工智能工具错误地识别了人们的性别,并且一旦被识别出就会产生偏差。谷歌在2015年因其在Google相册中使用的AI工具而遭到强烈反对。该工具将这个人的黑人朋友识别为“大猩猩”。为了避免这种情况,Google阻止了AI工具识别大猩猩,但这已完成。
尽管如此,到2018年,谷歌发布了AI原则,其中一项原则主要致力于消除偏见,监督以及AI可能引起的任何其他道德问题。
(责任编辑:fqj)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)