公司在开发和部署AI应用程序时需要考虑一些道德方面的问题。
机器学习算法无处不在。除了Facebook和Google之外。其他公司也正在利用它们提供个性化的教育服务和先进的商业情报服务,来对抗癌症和检测假冒商品。从农业到制药。从AI控制的自主车辆到临床决策辅助软件。
这项技术将使我们集体富裕,变得更有能力来提供人类福利,人权,人类正义和培养我们在社区生活中所需的美德。我们应该欢迎它,尽我们的所能促进它。
但与任何新技术一样,同时我们也面临着一些道德挑战。包括新技术是否公平透明?这些好处是否能让全民共享?他们会加强现有的不平等吗?
开发和使用AI系统的组织需要遵循一定的道德准则来指导他们面对已经存在于我们之间的和未来有可能出现的挑战。
去年,我所在的行业协会 - 软件和信息行业协会发布了一个关于人工智能和数据分析道德准则的问题简报,以应对这些挑战。它依据古典的道德伦理权利,福利和传统美德,敦促组织仔细检查他们的数据实践。
公司需要来恢复其在商业道德方面的思考能力,特别是在有关收集和使用信息的决策方面。这些原则是一个切实可行的指南。
SIIA不是唯一一个试图将道德考量引入AI和数据分析领域的实体。计算机科学小组也秉持着公平,问责和透明的原则为机器学习(FAT / ML)起草了自己的规范。在Asilomar召开会议的另一组计算机科学家则起草了更广泛的规范。IEEE提出了与设计中的道德价值相关的原则。ACM最近发布了一套旨在能够确保大众公平使用AI算法的原则。信息问责基金会在其关于人工智能,道德和增强数据管理的报告中制定了一套非常有用的规范。
政府也为AI伦理问题努力着
2017年10月的经合组织(OECD)会议上,针对人工智能的一些不同的伦理方法,在智能机器、智能政策的会议上被公开。日本人在2016年G7会议上和意大利人在2017年G&会上提出了对AI的道德规则的需求。最近的G7会议于2018年3月28日结束,期间发表了一份关于人工智能的声明,鼓励人们研究“审查人工智能的伦理问题”。美国政府也在最近宣布将“与我们的盟友合作”以促进对“人工智能技术”的信任。
盟委员会在其最近发布的欧洲人工智能通讯中,提出在人工智能联盟内制定“人工智能道德准则”,它来源于欧洲科学和新技术道德伦理组织发表的声明。
这都是积极的发展。但需要注意几点。抽象的道德声明只会让我们止步不前。可行的道德原则需要考虑AI在特定情况下的使用方式。例如,自主武器所涉及的伦理问题与使用人工智能进行累犯评分或就业筛查所涉及的伦理问题就有很大的不同。这就是为什么SIIA提供了关于如何将权利、正义、福利和美德的一般原则应用于不同的案例分析来确保算法公平的具体建议。
此外,没有只适用于人工智能,而不适用于其他数据分析和预测模式的特殊道德准则。需要在人工智能应用的开发和实施中应用和解释,尊重权利,促进福利和培养人类美德的道德要求,这需要进行大量艰苦的概念和实践工作才能做到这一点。但这与为AI寻求独特的规范性指导方针并不相同。
Elon Musk等一些人认为,必须超越道德标准,才能达到监管目的
在某些特定的领域里,为了部署技术,有些问题是紧急的,必须要解决。有必要搞清楚自动驾驶汽车的责任,或者在食品和药物管理局为临床决策支持系统制定一个监管框架。
但正如AI没有特殊的道德原则一样,也不需要设置任何单纯适用于AI的特殊法规或法律。AI涵盖了无限多种分析技术;它根本不是实体企业。由国家机构实施的一般的人工智能管理,应该就像拥有一个用于统计分析的监管机构一样!
2016年人工智能百年研究报告总结道:“一般来说,对人工智能进行规范的尝试是错误的,因为没有AI的明确定义(它不是任何东西),而且风险和需要考虑的因素在不同的领域有很大的不同。”
这并不意味着人工智能可以不受管制。目前的法律法规仍然适用。使用AI的时候,没有可以免于监狱的免费卡。这不是可以违反法律的辩解。公司不能逃避公平贷款或公平住房法的责任,例如,不能因为他们解释说他们使用了人工智能技术而可以区别对待。
无论监管状况如何,组织都需要有人来指导他们如何适应在这项技术付诸实践时所面临的诸多道德挑战。善良,尊重人格,正义和培养美德的准则可以为人工智能和先进的数据分析技术提供路线图和一些重要的保障。
责任编辑:Ct
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)