人工智能 面部识别
对许多人来说,使用人工智能来预防犯罪和帮助给罪犯定罪可能看起来像科幻电影中的场景。然而,英国的警察部门—包括达勒姆(Durham)、肯特(Kent)和南威尔士(South Wales) —已经在使用面部识别和行为软件在真正的犯罪发生之前,就采取预防措施。计算机评估框架正被用于通知拘禁和量刑决策。这项技术带来了巨大的希望,可也几乎有着同等程度的黑暗反乌托邦的前景。
这引发了几个道德问题。例如,预测性警务往往依赖于社区或警察巡逻队报告的犯罪记录,这可能导致反馈循环并在已经得到严格监管的社区中加强执法。鉴于有报道称Met的自动面部识别技术误报率为98%,因此对准确性也存在担忧。因此,我们必须小心警方资源被用于实际威胁,而不是被感知的威胁。
我们都知道,与人类一样,技术也会犯错误,并且经常会对有色人种和女性表现出不公平的偏见。美国的风险评估算法,例如美国的替代性制裁惩教罪犯管理资料(CorrecTIonal Offender Management Profiling for AlternaTIve SancTIons ,COMPAS)被发现间接含有强烈的种族偏见,这意味着黑人被告被错误分类的可能性几乎是同等情况的白人的两倍。对于那些因为这些系统的大规模应用而处于不利地位的人来说,这不仅仅是不道德的,也是不可接受的。
面部识别是其中一个高侵入性的方面。在使用时,目标对象在不知情或未经同意的情况下就被摄入系统。例如,过去用于预测罪犯“典型”面孔的软件依赖于社交媒体、关系、社交活动、学校日程安排以及来自数据经纪人的商业数据。与喊停和搜查等传统警务方法的官僚控制相比,这些工具进行预测的方式以及警察部门使用这些系统的做法并不透明。重要的是要确保将类似的 *** 作规范纳入机器中。
另一个需要审查的领域是使用评估框架或算法进行量刑。一些人工智能系统可以根据个人的历史和他们的伤害倾向来预测未来的犯罪行为。在美国,宾夕法尼亚州可能是最早一个不仅根据人们犯下的罪行做出刑事判决的州之一,量刑还要参考他们在未来犯下其他罪行的可能性。统计衍生的风险评估——基于年龄、犯罪记录和就业等因素——将帮助法官确定判决。这一观点认为,这将有助于降低监狱系统的成本和负担。
由于预算紧张和犯罪率不断上升,更广泛地使用人工智能程序协助预测犯罪行为可能具有优势。然而,我们必须确保系统公平透明,而现在我们仍然可以做到这一点。也许实现这一点最好的办法是建立一个监管人工智能的国际委员会,各个国家和消费者可以参与这些系统的发展,并确保行为守则和法律达到国际人权标准规定的门槛。
将道德责任融入机器似乎是一项艰巨的任务,但这是拯救这个勇敢的新技术世界的唯一途径,使它不至于演变成一种反讽的梦魇。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)