科技与伦理:“能做什么”和“应做什么”的

科技与伦理:“能做什么”和“应做什么”的,第1张

维护人—自然—社会系统协调发展
访东南大学科学技术伦理学研究所所长陈爱华
编者按
科技与伦理:“能做什么”和“应做什么”的博弈
近日,英国《独立报》报道,日本病毒学教授河冈义裕利用H1N1流感病毒成功研制出一种超级病毒。据称,这一病毒一旦泄漏,人类将毫无抵抗能力,恐酿成大灾难。英国皇家学会前主席罗伯特·梅教授认为,这一工作完全疯狂、极度危险。哈佛大学教授马克·利普西奇也对此表示担忧,“即便在最安全的实验室中,这也是危险行为”。
这一事件再次引起人们关于高新科技发展背后伦理问题的激烈争论。近一个世纪以来,科学发现与技术发明极大地改变了人类的生产及生活方式。高新科技一方面成为各国创新驱动发展的动力和国际科技竞争的焦点;另一方面,也因其对自然、人和社会的可塑性具有未可预见的深远后果,使伦理、法律与社会问题研究始终伴随着科技研究进程。如何协调高科技发展与人和自然的发展规律?高新科技与伦理之间究竟该保持何种关系?本期“学海观潮”邀请多位学者对此进行深入解读。
现代人一方面受益并依赖于高科技发展带来的高效率、高收益的生活,另一方面却始终对其保持高度警惕。科学家关于科技伦理的思考也不断遭遇新兴科技发展带来的冲击与挑战。科技与伦理,双方如何冲突、博弈、调适?中国社会科学报记者就此专访了东南大学科学技术伦理学研究所所长陈爱华教授。
“能做”与“应做”的矛盾
《中国社会科学报》:美国圣母大学约翰·莱利科学、技术和价值研究中心曾发布《2014年科学技术领域中将出现的伦理困境和政策问题》报告,您如何看待其预测的未来十大科技伦理问题?
陈爱华:这份报告提及的科技伦理困境,主要关涉以下几对科技伦理关系:科技与人的伦理关系、科技与社会的伦理关系、科技与动物的伦理关系、科技与环境或者说是生态的伦理关系。
其中,关涉科技与人伦理关系的包括数据芯片植入:我们还有个人隐私吗?伴侣机器人:改变人类互动的价值观?神经增强方法:人类在何处越界?人机交互:重新定义“人格”?关涉科技与社会伦理关系的包括犯罪预测警务:是否需要惩处潜在犯罪?机器人执法:何时需要人类的判断?虚拟货币:是否会助长违法行为?太空产权:私人公司有哪些权利?关涉科技与动物伦理关系的包括机械化有机体:将动物当成玩具?关涉科技与环境及生态伦理关系的包括气候工程:如何加强环境正义?
我认为,导致上述伦理困境的原因尽管具有多元性、多样性特点,但归结起来主要凸显为“能做”与“应做”的矛盾,或者说是科技活动主体在“能做什么”与“应做什么”的选择中产生的伦理冲突。这实际上是康德“问题式”再现。
《中国社会科学报》:怎样理解康德“问题式”再现?
陈爱华:康德曾发人深省地提出:“我能够认识什么?”“我应当想什么?”“我能够期望什么?”“人是什么?”
在康德看来,前三个问题从属于最后一个问题,即“人是什么”。康德在解读“人是什么”时指出,“人乃是唯一的自然物,其特别的客观性质可以是这样的,……在他里面又看到因果作用的规律和自由,能够以之为其最高目的的东西,即世界的最高的善”。康德认为,道德责任是一切道德价值的泉源,尽管合乎责任原则的行为并不必然善良,但违反责任原则的行为却肯定是恶的。对人来说,尤其对从事科学活动的主体来说,责任具有一种必要性。它能促使主体排除来自爱好和欲望的障碍,担负起自己的责任,恪守自己的职守,彰显德性的力量——把责任的“应该”转变成“现实”的力量。
科技发展是向科技伦理生成的过程
《中国社会科学报》:历史地看,科学技术与科技伦理之间的关系呈何种发展态势?
陈爱华:纵观科技发展史,科学技术发展与科技伦理密切相关。恩格斯在探索科学的起源时曾指出,“科学的发生和发展一开始就是由生产决定的。”而科技生产什么和怎样生产与每一时代人的需要密切相关。正如马克思指出的,人为了生活,“首先就需要衣、食、住以及其他东西”。
恩格斯在《自然辩证法·札记[科学历史摘要]》中叙述了科技最初的发展历程,“首先是天文学——游牧民族和农业民族为了定季节,就已经绝对需要它。天文学只有借助于数学才能发展。因此也开始了数学的研究。——后来,在农业发展的某一阶段和在某个地区(埃及的提水灌溉),而特别是随着城市和大建筑物的产生以及手工业的发展,力学也发展起来了。不久,航海和战争也都需要它。——它也需要数学的帮助,因而又推动了数学的发展。”
当代科技发展与造福人类、维护人—自然—社会系统协调发展密切相关:一方面,信息、网络、计算机等现代科技取得了长足发展,满足了人们交往多元化、信息化、高速化需求;另一方面,交通、建筑、能源、材料等高新技术崛起,不仅推进了人们衣食住行及文化需求的量的增长,且促进了其质的提升。与此同时,自然资源紧张,特别是土地、能源、资源的匮乏等人—自然—社会伦理问题日益凸显。因此,协调人—自然—社会复合性的多重伦理关系已成为当代科技发展不可回避的问题。在这一意义上,可以说,科技发展是向科技伦理生成的过程。
《中国社会科学报》:人们对这一问题的认识也存在一个过程。
陈爱华:是的。科技活动主体对其认识经历了自发(自发而非自觉意识到按照科技客观—自身发展的逻辑)—自主(按照科技活动主体自身的兴趣、偏好的逻辑)—自觉(自觉意识到了科技客观—自身发展的逻辑,整合科技活动主体自身的兴趣、偏好)的过程,因而人们对于这一问题的认识,也经历了肯定(自发地将科技发展与人的需要联系在一起)—否定(仅看到科技自身发展,忽略了与人—社会需要的内在联系)—否定之否定(意识科技发展与人—社会需要的内在联系)的曲折过程。
《中国社会科学报》:《科学家宪章》是否可以看作是近代以来,科学家道义自觉、责任自觉的里程碑?
陈爱华:《科学家宪章》中关于科学家义务的规定有以下6条:要保持诚实、高尚、协作精神;要严格检查自己所从事工作的意义和目的,受雇时须了解工作的目的,弄清有关道义的问题;用最有益于全人类的方法促进科学的发展,要尽可能地发挥科学家的影响以防其误用;要在科学家研究的目的、方法和精神上协助国民和政府的教育,不要使它们拖累科学的发展;促进国际科学合作,为维护世界和平、为世界公民精神作出贡献;重视和发展科学技术所具有的人性价值。
这些不仅规约着科技发展向科技伦理生成,且是科学家共同体达成的共识。
《中国社会科学报》:高新技术的出现,常伴随伦理上的巨大不适,但若因此完全拒绝这些新技术,我们可能会丧失许多为人类带来巨大福利的机遇,甚至与新的发展趋势失之交臂。
陈爱华:我认为“过于强调伦理,会束缚科技向前发展”的观点,正是对“科技发展是向科技伦理生成的过程”认识不足而产生的误识。法国哲学家兼科学家让·拉特利尔认为,现在的科学研究越来越多地不是旨在解决严格意义上的科学问题,而是利用科学知识、方法和技艺来创造新的工业,为经济建设提供新的资源,制造新式军事武器,或服务于区域或国家的发展规划。
海德格尔在《科学与沉思》中说,现代科学“以一种愈来愈决然、但却愈来愈不引人注目的方式锲入到生活的所有组织形式之中:锲入到各种工业、经济、课堂、政治、战争、政论之中”。
可见,现代科技,无论是研究还是成果应用,都不再是与价值即科技伦理无涉的范畴或现象。亚里士多德曾在《尼可马克伦理学》中指出,“德性不仅产生、养成与毁灭于同样的活动,而且实现于同样的活动”,而“造成幸福的是合德性的活动,相反的活动则造成相反的结果”。因此,“科技发展向科技伦理生成”是科技发展的历史选择,是让科技发展造福人类,促进人—自然—社会伦理关系和谐可持续发展的应然选择,也是科技活动主体的道德责任与历史使命。
构建科技伦理应然逻辑体系
《中国社会科学报》:科技的“功利效应”与伦理的“道义效应”导致了价值观念上的冲突与博弈、调适与坚守。您认为,应如何构建符合时代要求的科技伦理,以解决科学技术与伦理道德的关系?
陈爱华:科技的“功利效应”与伦理的“道义效应”,均表现为科技发展中不同伦理价值取向,两者的冲突与博弈、调适与坚守是科技伦理价值论研究的内容之一。两者的区别在于前者受资本逻辑 *** 控,后者遵循科技伦理的应然逻辑。
就资本逻辑而言,其实践层面的逻辑表现为——以“经济理性”为原则、以利润为动机,把科学技术、自然资源、人的创造能力等要素仅作为资本积累手段;其价值哲学层面的逻辑表现为急功近利的价值取向——一切以本位的利益获得为价值取向来权衡或主导科技发展方向,不考虑人、自然、社会的可持续发展,使科技与自然、科技与人、科技与社会的伦理关系均处于紧张状态。
为了超越资本逻辑对科技发展的 *** 控,科技活动主体必须遵循“伦理的‘道义效应’”的科技伦理的应然逻辑。
《中国社会科学报》:要解决科学技术发展过程中伴生的伦理困境,除了构建科技伦理,您认为还需要做什么?
陈爱华:在我看来,还必须构建科技伦理应然逻辑体系。不仅要关注科技活动个体道德规范的构建与完善,更要注重科技共同体集体行动的伦理调控。因为有重大而长远影响的科技活动,一般都汇聚了多学科、多元科技共同体的集体行动,仅强调科技共同体及个体对于应然逻辑的伦理规范的自知、自觉,对于自身道德行为的自律、自省还不够,还需制定相关的、具有道德他律性的制度伦理机制、监督伦理机制、问责伦理机制,以引导和约束科技共同体集体行动与科技个体的认知和行为。
记者 唐红丽

想象一下,你可以走进一间手术室,然后在你的大脑中植入数千个显微镜般精细的电极,所有电极的植入速度和效率都跟你做LASIK眼科手术时一样快,这一手术的目的是通过一个简单的手机应用来提升你大脑的潜能。

Neuralink的脑机交互技术令人印象深刻。Neuralink公司仍然采取了Musk轻车熟路的老办法——将不同领域的新人才聚集在一起的模式来加快技术创新的速度,该公司目前已经在可实现的脑机交互目标上实现了跨越性进展。但是,尽管无线读写脑机交互的技术前景广阔,但是像Neuralink这样的公司却面临着这样的危险:它们过于专注于自己能做什么,以至于忽略了自己能做什么背后的道德规范。
伦理挑战

像往常一样,一旦话题涉及到脑机交互等先进技术的伦理问题,分析就有没法继续的危险。我们甚至可以推测出先进的脑机交互技术可能给使用者带来的潜在心理伤害,或者被大脑黑客劫持的危险。我们很容易联想到反乌托邦式的未来——社会行为被机器控制,因为我们为了神经网络的便利而牺牲了自主性。然而,当试图在强大的技术能力与其伦理和社会责任发展之间进行权衡时,这种类型的推测很少有什么用处。相反,尽管存在将虚构潜在风险甚至编造出子虚乌有的谣言的诱惑,但我们迫切需要明智地思考可能出现的问题,以及如何应对这些问题。就神经连接技术而言,这意味着要努力解决道德和负责任创新领域面临的三个具体问题。

生理影响
首先,在大脑中植入成千上万个电极可能会对人体产生急性和慢性的生理影响。确保这项技术的安全性绝非易事。然而,我有理由相信,监管机构、研究人员和开发人员将能够识别并驾驭关键挑战。由于多年来一直致力于研究包括纳米颗粒在内的新型材料的潜在健康风险,我对致力于确保Neuralink开发的神经医学设备尽可能减少对人体危害的科学家和监管机构充满敬意。但与此同时,随着技术不断创新,他们也必须对新想法持开放态度。
心理和行为影响
第二个问题则更为棘手,因为它涉及潜在的心理和行为影响。当这项技术被用于医疗目的时,神经交互技术的好处以及其可能如何影响一个人的精神状态和行为的风险之间总会有权衡。但随着这项技术从修复转向增强,会导致的潜在行为和情绪变化需要更严格的审查。例如,当人们开始使用这些设备时,是否有可能发生性格变化或上瘾行为,或出现慢性心理障碍?在这方面,存在一种风险,即从广泛使用这项技术到出现心理问题之间的长时间滞后可能会使事情进一步复杂化。如果人们在对长期影响完全了解之前就开始依赖这项技术,这可能意味着灾难。
此外,还有第三个道德层面的问题,以及这项技术可能带来的更广泛的社会影响。虽然Neuralink目前专注于利用其技术解决医疗问题,但该公司的长期目标是创建一个与大脑连接的人工互联网覆盖层,使用户能够与未来的智能机器进行交互。这是一个大胆的目标,其目的是改造社会。正因为如此,它导致了道德和责任方面的问题,这些问题必须在技术仍有机会以负责任的方式使用时加以解决。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/10697454.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-10
下一篇 2023-05-10

发表评论

登录后才能评论

评论列表(0条)

保存