你死还是他们死:自动驾驶汽车的伦理学难题

你死还是他们死:自动驾驶汽车的伦理学难题,第1张

  自动驾驶载具中的计算机能够很快做出生与死的决定。但他们应该这么做吗?机器时代我们面临着生物伦理学的难题。

  有一个很知名的伦理学难题你一定听说过:假设你负责控制一辆火车前进的方向,这时候你发现火车前进的轨道上卡着一辆校车,里面装满了孩子,继续前进必然会杀死他们;然后你发现前面还有另一条岔路铁轨,转动方向进入岔路可以避免装到校车,但是在那铁轨上却有另一个孩子:你的孩子,他在那里玩耍等你下班。现在开关在你的手里,你只能救下一个方向的孩子,这时候你该怎么选择?

  这个伦理学困境也被称为“电车问题”,当然版本的细节各有出入,本质上却是相通的。在此之前,这还都只是一个有趣的思想实验,因为人脑在面对这种突发情况时其实很难基于理智做出决定。但现在是21世纪了,我们开始有了自动驾驶载具,这样的问题就开始才从理论变成具有实际应用价值的研究主题了。

  谷歌的自动驾驶汽车已经在美国的道路上奔跑了超过170万英里,尽管发生了一些事故,但是谷歌声称其自动驾驶汽车都不是事故的原因。沃尔沃称其自动驾驶汽车将在2017年之前出现在瑞典的高速公路上。伊隆·马斯克也称自动驾驶的未来已经相当接近了,Tesla的自动驾驶模型也将在今年夏天开始上路测试

  你准备好了吗?

  这项技术已经到来了,但是我们准备好了吗?

  谷歌的自动车已经能够处理一些现实世界的实际困难了,比如当前方汽车突然在他们面前转弯时,谷歌的汽车会进行智能规避。但是在某些情况下,碰撞是不可避免的。而且事实上,谷歌的样车在上路测试中已经经历过了大量的小车祸,尽管谷歌把这些责任都推到了人类身上。那么对于以上提出的没有“合理”解决方案的难题,自动驾驶汽车应该如何应对呢?比如前方的车辆突然急转弯,谷歌的自动驾驶汽车已经无可避免地要撞上了,但道路两边都是墙,所以留给车子的选择只有撞前面的汽车或者撞向墙。车载的计算机当然有足够的计算力做出基于“理智”的决定,这一点和人类不一样。计算机有足够的时间进行扫描,计算出相关人类幸存的概率。那么计算机应该做出有利于自己主人的决定吗?即使对方是一辆装满儿童的校车?谁应该做这个决定?它们会怎样决定?

  “最终,这个问题变成了实利主义和道义之间选择。”阿拉巴马大学伯明翰分校(UAB)校友Ameen Barghi如是说。他于今年五月份毕业,将在今年秋天以UAB第三罗得学者的身份进入牛津大学,他是一位资深的道德困境研究者。他曾作为该校生物伦理学队的资深领导人,赢得了2015年的“生物伦理学杯”全国比赛。他们获胜的辩论主题包括埃博拉病毒的临床试验和假设一种能让一个人爱上另一个人的药物。在去年的伦理学杯竞赛中,该团队讨论了另一个发人深省的主题,这个主题正是关于自动驾驶汽车:如果事实证明自动驾驶比人类驾驶更安全,政府是否应该禁止人类驾驶?(他们的答案总结起来就是:应该。)

  在驾驶座上的死亡

  所以你的自动驾驶汽车应该为了拯救别人而牺牲你的生命吗?Barghi说,对于这样的问题,我们有两种哲学方法。他解释道:“实利主义告诉我们,我们应该始终选择能够为最多数人带来最大收益的解决方案。”换句话说,如果要在把你撞死在墙上和拯救一车孩子之间做出选择,你的车子会选择前一种。

  然而在道义上讲,“有一些价值断然总是正确的。”Barghi继续说:“比如说,谋杀总是错误的,我们也不应该做这样的事情。”回到最开始提出的火车问题,“即使转动方向可以拯救五条生命,我们也不应做,因为这样我们就主动地杀死了另一个人。”Barghi说,所以尽管很奇怪,但是一辆自动驾驶汽车不应该被编程为选择牺牲自己的乘客而避免其他人受到伤害。

  “电车问题”还有另一些变种版本:如果那一个人是你的孩子呢?另外五个人是五个谋杀犯呢?答案很简单。Barghi说,“让用户在道义和实利主义之间做出选择,”如果答案是实利主义,那就还有两个子选项:规则或行为实利主义。

  “规则实利主义说我们必须总是选择最有利的行动,而不需要在乎坏境——也就是说按照这一模式,任何版本的电车问题都能很容易得到一个结果。”Barghi说:计算个体的数量,选择大多数的利益即可。

  而行为实利主义,他继续说:“说的是我们应该将每一个个体看作是行为决定的子集,”这意味着这里就没有快捷简单的规则,每一个情形都有特定的思路。那么计算机要怎样才能掌握所有这些情况。

  “计算机不能编程为掌握所有的情况,”UAB哲学艺术和科学系Gregory Pence博士说,“我们通过了解伦理学的历史就能了解这一点。诡辩,或基于圣托马斯基督教伦理的应用,曾经尝试为每一个问题提供一个药方。最终他们悲惨地失败了,一方面是因为独特的情况实在太多了,药方也在不断地变化。”

  为最坏的情况做好准备

  UAB的伦理小组和生物伦理小组花费了大量的时间来研究这些问题,这些结合了哲学和未来主义的问题。这两个团队现在都由Pence领导,他是一位知名的伦理学家,已经为UAB的医学院学生进行了几十年的培训。

  为了得出结论,UAB的团队还会进行激烈的辩论,Barghi说。“随着Pence博士的加入,我们之间经常发生争论,而且团队中的每一个人都可能为某个案例唱反调,”他说。“在比赛进行之前,我们尽力制定出尽可能多的情况和潜在的立场来反驳我们,以让我们自己对这一主题有更为全面的了解。有时候,我们会在几天后完全改变自己的立场,因为出现了一些已经没有考虑到的新情况。”

  对于无人驾驶汽车,我们现在还刚刚起步,可能还有更深层次的问题还并未出现。尽管未来的技术有望让自动驾驶汽车在遭遇事故时做出精细的计算从而避免出现灾难性的事故,但意外总是在所难免的。在这些冷血的高速机器投入实用化之前尽力考虑所有的最坏的情况并为之提供前期预防方案才是合理的举措,这样在事故真正发生的时候,汽车不会因为误判而做出错误的决定。

  比如说:如果一辆汽车相信为了拯救坐在驾驶座上的你,需要杀死全世界的人,这时候该怎么办?

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2546316.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-05
下一篇 2022-08-05

发表评论

登录后才能评论

评论列表(0条)

保存