人工智能的载体究竟是不是法律主体?

人工智能的载体究竟是不是法律主体?,第1张

人工智能的异军突起将这样的案件带入公共视野,也为当前的法律法规、伦理规范和政策体系带来不小的考验:

“人工智能的载体究竟是不是法律主体?”

这样的问题在斯坦福大学新开设的一门法律和计算机科学交叉的课程上激起了热烈讨论。如果不是法律主体,那么当人工智能载体触犯他人利益、造成社会损失时,究竟应该由研发者、运营者还是使用者承担责任呢?如果是法律主体,那么又该如何为这些“人工智能”定罪量刑呢?

今天小探就带你一起看看,在人工智能冲击传统法律、公共政策的当下,斯坦福大学的教育专家和法律人士都在做些什么努力。

AI制定政策?联邦政府早已启动

不要以为人工智能只是科技公司的专利。事实上,近年来美国联邦政府已经开始考虑使用机器学习和人工智能相关技术帮助公共政策的制定。

美国环保署(EPA)管理杀虫剂的例子就很好体现了算法分析和法律相互作用的微妙形式。

过去,美国环保署对杀虫剂的毒性检测很大程度上取决于动物对化学药物的反应。但面对超过80000种待检测化学药物的压力,这种方法被普遍评价为缓慢、昂贵、又不人道。

后来,美国环保署开始大量收集数据,并引进不同计算方法来规范化学毒性检查。它建立了一个聚合计算毒理学资源库(Aggregated ComputaTIonal Toxicology Resource),根据各种公共资源整合的关系型数据库,用以支持数据挖掘和建模。——在算法与神经网络对数据的分析中去寻找决策新思路。

当人工智能介入法律决策,美国的残疾索赔程序也开始发生变化。

2013年以来,为了减少工作人员审理纸质文件的负担,并提高案件决策一致性,美国退伍军人事务部推出了一套计算机案件管理系统,用于处理退伍军人的残疾索赔。

据报道,该系统可以根据索赔人(自我报告)的调查问卷,从0-100%自动评估不同退伍军人的残疾程度。目前这套软件使用的是IBM Watson 的人工智能程序,从退伍军人的电子医疗记录中进行数据筛选。

科技巨头,政府数字化改革的合伙人?

今年2月,特朗普签署了一项推广人工智能的新行政命令,再次将人工智能升级为国之重策。然而目前除了军事部门,大部分联邦机构的技术更新依旧缓缓慢,高技术人才也相对紧缺。哪里高级人才多?当然要属硅谷的科技巨头们了。

那么,处于技术前沿的科技公司又在联邦政府的技术升级中担任什么角色呢?

像IBM等科技巨头跟政府已在人工智能领域有多个合作项目:

美国海军陆战队正在使用Watson的人工智能设备来诊断军用车辆的性能,并将自然语言处理和数据科学——例如IBM的SPSS统计软件和Watson Explorer——应用于人员的组织和部署。在不久前,这些大部分计划和日程安排都是通过电子表格完成的。

除了技术上的支持,科技公司也会在核心科技的政策、监管、应用前景方面与政府交换意见。

今年2月,谷歌便向美国政府提出了一份长达34页的《关于人工智能管理的意见》(PerspecTIve on Issues in AI Governance),呼吁政府和社会、工业界就人工智能的可解释性标准、公平性评估、安全考虑和责任框架等方面进行合作。

谷歌建议,要像欧洲的电子产品在销售前需经过CE认证一样,美国政府也应为人工智能创建类似的安全指标。“例如,针对智能锁当中的生物识别技术,就应在使用前测试它的准确度是否达标。”谷歌的新兴技术全球政策负责人Charina Chou表示。

尽管不少科技巨头都与政府在技术方面的合作项目,但如果这些项目有涉及侵犯隐私、违背伦理的风险呢?

还记得谷歌和美国国防部合作的Maven项目吗?这个去年3月被爆出后闹得沸沸扬扬的项目,是谷歌把人工智能技术用于分析无人机镜头当中,帮助无人机更好地从移动或静止图像中自动追踪感兴趣对象,从而提高打击精准度。这些无人机可能会参与到美国对阿富汗、巴勒斯坦、也门等国的空袭当中。

很快,超过4000名谷歌员工签署了一份反对“Maven”项目的请愿书,他们在《纽约时报》刊登了整版广告,并导致了数十名员工辞职。最终,去年6月,谷歌松口了。表示将在今年3月到期后,不再与国防部续约合作。

450多名亚马逊员工也在近日公开致信贝索斯,希望公司停止与美国国防部和执法系统就面部识别软件 RekogniTIon 合作的项目。他们担忧的地方在于,执法部门在没有公众监督、社会问责和亚马逊限制的情况下使用这些技术,很可能造成对人权的侵犯。

然而,贝索斯表示,公司将持续和国防部合作,“如果大科技公司都拒绝了国防部,那么这个国家会陷入麻烦……这是我们该做的事情,就算它不受欢迎。”

人工智能与行政结合的优势与担忧

到底人工智能对政府绩效的改善有哪些优点?主要有三点难以抗拒的优势。

第一是效率。以较低成本完成大量重复性事件。另一方面,机器能在排除个人因素干扰的前提下进行数据分析和结果预测。决策者可能表现出种族偏见,可能过分地或不足地衡量某一信息的重要性,或者可能对所处情况的预设过于天真。对人为意志的排除使机器做出的决策有天然的说服力。

最重要的是,通过与大数据的连接,计算机程序能帮政府官员分析信息,并对潜在的战略性行为做出反应。

然而,提升行政效率带来的同时,使用机器办公的规范性问题也被提上日程。

近期,加州最高法院大法官Mariano-FlorenTIno Cuéllar就在其著作《人工智能与行政国家》(Artificial Intelligence and the Administrative State)中,提出了四点对决策过程中使用人工智能代理的担忧。

首先,政府是否该依赖计算机程序做出某项决策?大法官认为,这取决于决策目标的社会争议性。当前,立法者常针对是否该做出某项行政决定(如实施经济制裁)以及该决定会在不同层面导致的后果进行大量的辩论,人工智能将如何统筹政治博弈中的各方利益?这将是个不小的挑战。

第二点担忧和争议来自人工智能所谓的“机械理性”。由于在由算法主导的行政决策占越来越重要的位置,但机器减少人为因素干扰的同时,是否应该反思,那些所谓的“偏见”和“情感因素”是否都没有价值?一些可能被机器排除的“偏见”例如对弱者的同情,或许也同样值得关注。

第三,网络安全风险及其他不利影响。当行政越来越依赖数据收集和计算机程序,这可能带来更高的效率,也同时意味着受网络安全威胁的影响更大。

最后,如何向公众解释决策过程将遇到困难。试想一下,民主治理的内涵是通过对话和交流,每一种声音都有被决策者或公众理解、接受或拒绝的机会。除非人工智能的决策机制能依赖相对简单透明的结构,否则向公众提供决策如何产生的理由时,决策机构将会遇到相当的困难。

斯坦福法律课上的头脑风暴

面对这些担忧,身处硅谷中心的斯坦福大学已开始促成从学术研究到业界层面的合作:从2019年起,斯坦福大学政策研究中心新开设一门法律和计算机科学交叉的课程“算法管理:在规制型国家中的人工智能”。(Administering by Algorithm: Artificial Intelligence in the Regulatory State)

这门课程由斯坦福法学院教授David Freeman Engstrom、Daniel E. Ho,和加州最高法院大法官Mariano-Florentino Cuéllar共同教授,并邀请了25位律师、计算机科学家和算法工程师来和大家共同探讨政府机构的技术研发和应用。

从左至右:斯坦福法学院教授Daniel E. Ho,David Freeman Engstrom和加州最高法院大法官Mariano-Florentino Cuéllar

“我们现在面临着专业技术和认知上的不匹配。一方面在法律判决中我们需要法律机构能解释做出这样决策的原因,另一方面,人工智能和机器学习的工作机制尚未完全透明,”斯坦福法学院教授David Freeman Engstrom说道。

课堂的学生来自计算机科学、法律、政治、哲学等多个专业背景,需要通过团队合作,完成三部分任务。

首先,团队对100个最重要的联邦机构进行调查。当发现有算法参与决策的例子时,学生们开始测评这项技术具体归属哪一类:是属于人工智能,还是机器学习,还是一些其他的基础技术?

第二步,学生集体评估近期或中期政府机构中最可能部署人工智能的环节。

最后,转向规范性问题探讨:思考使用人工智能执行监管任务带来的法律、政策分析和哲学层面的挑战。例如,如何解决诸多程序性权利面临被机器行政架空的威胁等。

课程结束后,学生将完成一份报告,探讨行政机构在不同层面该如何应用人工智能技术。该报告将提交到无党派独立机构美国行政会议(Administrative Conference of the United States),并有望影响未来行政机构的政策。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2683145.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-15
下一篇 2022-08-15

发表评论

登录后才能评论

评论列表(0条)

保存