智能化革命正在深刻地影响和塑造着人类的生产、生活方式与社会文明发展形态。如何应对人工智能技术发展和应用带来的伦理问题及挑战,成为智能化时代全人类需要面对的重大课题。国际学术界对新技术可能引发的各种伦理问题以及防范等进行了诸多研究,值得我们关注。
对机器能否成为道德主体的看法
人工智能显然超出了传统工具的范畴,具有学习能力,能做决策,并根据环境变化调整行为,进而产生相应的伦理后果。因此,该如何确定或定义人工智能在人类社会中的身份和地位,其能否成为道德主体或法律主体,为自身行为承担责任或获得激励?国外学界认为,对这些问题的探讨最终还是要还原到何为自我意识、自由意志的问题。从1956年图灵(A. M. Turing)提出“图灵测试”设想开始到塞尔(J. R. Searle)的“中文屋”思想实验,再到德雷福斯(H.Dreyfus)的《计算机仍然不能做什么:人工理性批判》等思想成果,早期的人工智能先驱们基于人工智能的本质,及其与人类智能的区别等视角普遍认为,人工智能不具有类人的意识。
近年来,随着以人工智能为代表的新技术指数级的发展,自主性的机器能否成为主体,成为绕不开的话题。其中,大部分学者认为机器智能依赖的是算法程序,很难衍生出像人一样的自我意识和自由意志,因而很难成为道德主体。
他们认为人的心灵(mind)是由两个部分构成的,通过形式逻辑、自然因果律等认识、把握、改造对象世界的计算意识,通过对象性活动和交往活动确证主体世界本质与意义的社会情感意识,机器表现出来的自主意识只是对人类计算智能的模拟。如博登(M. Boben)认为人类很难设计出通用人工智能,因为人工智能只专注于智能理性而忽略了社会情感智能,没有智慧(wisdom)。齐泽克强调不应该将计算机想象成人的大脑模型,要将人的大脑想象成“血肉构造的计算机”,而人脑是无法完全还原为计算机构造模型的。
但是,一些未来学家认为机器在未来将衍生出不同于人类的意识和超出人类的智能,而一旦出现超级人工智能,人类将很难与其沟通,也很难使其遵守人类的道德规则。如库兹韦尔(Ray Kurzweil)于2005年提出“技术奇点”论,认为在未来人的主体性将受到机器的挑战。安德森(Michael Anderson)夫妇编著了“机器伦理”(Machine Ethics)一书,开启了以机器作为责任主体的机器伦理学研究进路。随着人工智能技术指数级的发展,机器在未来能否突破因果律的限制,衍生出能动意识,需要理论持续的跟进。
西方学者关于机器能否成为道德主体的论争,引发了我们重新关注和审视人工智能趋势下“什么是人”“我们该如何对待人”“技术的本质和限度是什么”等问题的思考。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)