随着人工智能越来越强大,智能机械正改善我们的生活,然而不仅是技术的快速发展,人类的想像早已延伸至更远之处,著名科幻小说家以撒.艾西莫夫(Isaac Asimov)早在 1942 年就针对机器人技术的发展提出了三大定律,以探讨未来人类对人工智能(AI,ArTIficial Intelligence)的应用以及所面对的伦理道德问题。如今随着想像越来越逼近现实,人工智能所引发的问题已不止如此而已。
失业与贫富差距机器人技术的发展,首要面对的问题其实早已被广泛认知,就算不是科学家或是哲学家,现代民众也能清楚的理解此一问题必然会发生,那就是—失业。劳动的层次与自动化的程度有关,在自动化作业之下,人类会逐渐转往负责更复杂的战略及认知活动。例如卡车司机,目前有数千万人在从事这样的工作,但如果正如特斯拉(Tesla)所承诺,未来十年内自动驾驶车辆将会被广泛使用,那么这些人将会如何?但从另外一个角度来看,自驾车的普及将会大幅减少交通事故伤亡率,那么自驾技术的应用就变成了一个道德的选择,人命或者是失业?
或许有一天我们回头看看现在的经济型态会认为,让人类出售自己的时间仅为了活下去是一种很野蛮的行为。目前人类的工资大部分依赖于时薪,然而通过使用人工智能将大幅减少所需的劳动力,这也意味着失业,但除了失业以外,还有另一个问题,机器人的劳动所得该由谁分享?在现今自动化还没有真的那么普及时,贫富差距就已经非常的大,宕机器人取代人类劳工之后,相信贫富差距将会更加严重,该如何建立一个公平的经济社会就是第二个问题。
互动、错误及偏见人工智能引发的另一个层面问题出自于人类的社会性。在 2015 年,一架机器人名为 Eugene Goostman 成功通过了图灵测试(Turing Test)。在这个测试中,测试人员必须分别跟真人与机器人对话,若机器人能成功瞒骗过测试人员,让他们误以为是真人便成功了,而 Eugene Goostman 成功的欺骗了一半以上的测试人员。这是一个时代的里程碑,机器人可以开始与人类互动并建立关系,甚至比人类更有效率去维持人际关系,因为其注意力并没有限制,人工智能未来将成为人际关系中不可或缺的一部分,该如何与机器互动这是人类必须面临的问题。
机器人在未来是如此重要,但实际上就算再怎么高效仍然会存在盲点,有可能会被有心人士愚弄甚至是利用,如何让机器能够发挥其应有的功能,而不是遭受或引发不必要的破坏便是重要的问题。例如机器其实并没有想像中的那么中立,因为人工智能也是通过学习而建立起来的,所以人类一样能够带给机器偏见并使其产生错误的判断,例如 Google 曾发展一项技术,将影像识别用于预测未来罪犯时,却发现其拥有对于黑人的偏见,这就是一个严重的问题。
安全、威胁和控制人工智能产生了错误与偏见时,可能会对人类造成安全上的威胁,如同电影一般。所以接下来的三个问题是有关于如何维持人工智能的资讯安全,以及若人工智能得出具有威胁人类安全的偏见时,该如何应对?又如何能保证继续控制这些机器人?或许在技术上可以设计让人工智能无法直接去威胁人类安全,如同机器人三定律,但尽管如此,这些科幻情节发生的机率可能比想像中还高,例如当人工智能在思考如何消灭癌症时,经过大量的计算后它可能会得到这样的结论—尽可能减少地球人口。这可能真的是最有效的方法,但没有人会期待,虽然听起来像是一个玩笑,但如果未来人类真的必须依赖机器人来维持社会的运作,那么这个玩笑就一点也不好笑。在《机械公敌》(I,Robot)电影中,尽管出于善意,但机器人的确还是杀人了。
机器人权经过神经科学家努力的研究后,令机器人也能拥有好恶的基本机制,就像人类对动物的训练一样,虽然目前的技术还不够成熟,但正变得更加复杂,也使机器人更加栩栩如生,使其成为感知和行为的实体。当这项技术更加的先进以至于机器人也拥有情绪之后,人类是否应该要去考虑其感受,机器人是否也应受到法律的保障,拥有机器人的基本人权?
无庸置疑的,发展高度先进的人工智能将会有很大的风险,也会遇到很多的问题,但也必须要记得,这将会是使人类社会能够继续前进的动力,让生活更加美好的途径。人工智能的潜力与威胁,其实一直都取决于人类自己。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)