正是“无知”才导致人类对于人工智能的恐惧

正是“无知”才导致人类对于人工智能的恐惧,第1张

  当下正在热映的两部好莱坞大片《复仇者联盟2》和《超能查派》,其中都出现了机器人主角:奥创与查派,它们虽然在人设上大有不同,可归根结底,都是人工智能主导的生命体。

  

  但你可不要以为电影里的场景距离你遥不可及,其实“人工智能”这一概念早在世界上第一台计算机埃尼阿克问世后不到十年就被提出了,而在当下,人工智能更是早已已经布满在你的身边——远一些像IBM研发出的超级国际象棋电脑“深蓝”,近一点像翻译软件、Siri和无人驾驶,其实都是人工智能,只不过大部分人工智能在实现和普及以后,人们就只称呼它为“智能”而已。

  不过,相比较普通人对于人工智能的好奇和期待,一些科学家和行业巨头们却对于人工智能的未来发展抱以担忧,其中,包括史蒂夫·霍金、比尔·盖茨和埃隆·马斯克。比如霍金很早之前就表示,人工智能是人类历史上出现过的最可怕的事物;而马斯克也在麻省理工的演讲中提到,人工智能将成为人类“最大的生存威胁”。

  这似乎很难以理解,因为无论是“深蓝”还是Siri,或是无人驾驶等等,看上去似乎满满都是利好的一面,是科技进步的体现,那为什么我们还是恐惧它们呢?

  人工智能的分类

  要回答这一问题,先要搞清楚人工智能的分类。人工智能分为弱人工智能、强人工智能、超人工智能三种,而它们本身也是循序渐进的发展路线关系。包括“深蓝”和Siri,其实只属于弱人工智能,而真正令巨头们感到忧虑的,主要是后两者。

  弱人工智能目前在生活中已经非常普遍,其特点是可以执行某种单独的能力,比如检索信息、生产 *** 作等等。人们对于弱人工智能的关注点主要在于,它存在一定的替代效应,比如生产用的机器人,在其可以于部分生产环节里代替人力资源之后,就可能会造成人类的工作流失;

  而强人工智能,是指达到人类脑力活动级别的智能,它不仅可以执行指令,还可以思考、学习、理解,乃至进行抽象思维,比起弱人工智能,强人工智能实现起来的难度非常之大,关键就在于它需要具备“自我意识”——这意味着它和其它被人类研发出来的技术,比如核武和克隆不同,因为它可能会自己做点什么;不过目前,人工智能虽然已经在多数需要思考(主要是计算)的领域上超过人类,但在一些人类不需要思考就能完成的事情上(比如下意识躲避飞来的球),它们还差的很远;

  而超人工智能顾名思义,就是超出人类自身能力的人工智能,包括在科研、社交、生产领域等等,超人工智能都将比人类本身要更加聪明强大——而这一点,也是最令人担忧的,因为如果比人类更强大的超人工智能普世之后,人类自身,还有存在的必要和可能吗?

  

  对超人工智能的恐惧,来源于人类的无法预知

  在霍金、盖茨和马斯克这些悲观派眼中,强人工智能尚有一定可控性,但超人工智能则不一样,因为后者令人害怕的地方,在于人们对其一无所知——是的,人类最多能用目前已有的东西,去预测将来可能发生的事情,但是,超人工智能的能力是超过人类的,这意味着许多人类目前无法解决,甚至无法预知的东西,对超人工智能来说则可能不是问题,换言之,人类也无法预知超人工智能。

  而现阶段那些表示人工智能不值得担心的人,包括百度人工智能负责人吴恩达,都是基于人工智能还有很长的发展时间这个点——换言之,他们并非是否认人工智能可能带来毁灭,而是对于这中间的时间,以及这段时间内人类自身技术的发展表示乐观,他们认为人类有能力在超人工智能引起灾难之前,把一切隐患环节都锁死和控制住,就像现在断电断网,就能遏制弱人工智能的“生命”一样。

  也就是说,时间是一个关键,它既关系着人工智能的发展程度,也决定着人类是否有足够的应对和控制时间,那么,在时间上我们能乐观吗?

  宁愿杞人忧天,不可自欺欺人

  霍金给出的预计是100年以内,而马斯克则激进的表示在5年之内人类就会有危险——掐头去尾之后,这个难以确定的时间,可能就是当代人的有生之年。而很多人都知道一个道理,科技越发达,科技本身的发展速度就会越快,它既体现在社会环境中,也体现在具体产品至上,比如智能手机的处理能力,以及互联网本身的发展,就是呈指数级递增的,从之前到现在需要100年发展的东西,从现在到下一个节点可能只需要50年,再来就是25年。

  这就是为何看似非常遥远的超人工智能,会在这个强人工智能都还难以实现的当下就让人感到恐惧的原因——因为它的开端可能很慢,但是之后会越来越快,包括动物本身的进化就是如此,现在所拥有的一些习性,其实是经过了漫长时间的适应与培养,最终沿袭下来的,然而,猿人和人类之间的差距很漫长,但普通人与高智商人群之间的距离,则就要被缩小N多倍。

  也就是说,人工智能的发展,在时间和效率上,都会比人类自身的发展要快的多(除非人类控制人工智能的发展始终保持在一个相对间平衡状态下,但这并不容易)。而就像人类不会停止自身的进步一样,人工智能也不会停留在强人工智能阶段,一旦它们达到了强人工智能,那么下一秒就会开始像超人工智能的目标飞奔过去。像阿西莫夫所向往的以人类为代表的“碳文明”与机器人为代表的“硅文明”的共存共生的局面可能发生,但可能只是一段时间而已。

  而在实现了超人工智能之后,它们看待人类,就像人类现在看待动物一样,有足够的资本睥睨后者的低能,而届时,人类也就像动物一样,不再能理解超人工智能的世界了。不夸张的说,现阶段我们预言的“背叛”(指机械可能会在没有人为干预的条件下自主采取任何行动),到时候可能就会成为一种自然法则,而人类的社会结构,将有可能会因此而遭到毁灭。

  小结

  正是这种在当前有限的认知中所能试想出来的悲观结果,才会使大佬们连番发话号召人们警惕人工智能,这同时也是作为行业领导者的他们所拥有的责任。

  不过换过一面看,也许超人工智能实现以后,会把人类带到一个新纪元中去——甚至是再一次进化也不是不可能。只是无论好与坏,人类都不会再是现在这个样子了。这也就是为什么有人会说,超人工智能将会是人类最后一项发明的原因。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2715849.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-17
下一篇 2022-08-17

发表评论

登录后才能评论

评论列表(0条)

保存