特斯拉汽车创始人马斯克:人工智能“可能比核武器更危险”

特斯拉汽车创始人马斯克:人工智能“可能比核武器更危险”,第1张

  电动汽车和私人太空飞行领域的先驱、特斯拉汽车(Tesla Motors)和SpaceX的创始人埃隆•马斯克(Elon Musk)认为,先进的计算机技术“可能比核武器更危险”。
        自从进入文明时代,人们就一直担心人类有朝一日可能会被灭绝。小行星撞击地球以及核灾难幽灵是我们这个时代最为流行的“末日恐慌”。不过,一些科学家日益认为,必须把一种新的噩梦列入其中。他们的担忧是,智能计算机有朝一日会发展出自己的思想、并毁灭人类。
  最近的一次警告来自于患运动神经元疾病的著名天体物理学家斯蒂芬•霍金(Stephen Hawking)教授。他近日接受采访时称,人工智能可能会“比我们所有人更聪明”,并且“几乎可以肯定”会发生由技术引发的灾难。大多数非专业人士都会对霍金的这一说法不以为然,认为是科幻小说中的荒诞幻想。但人工智能的发展速度之快意味着,政策制定者应该已在考虑它所带来的社会影响。

  自上世纪50年代计算机时代开启后,有关机器有朝一日可能具备人类一样思考能力的说法便一直得到泛泛的讨论。美国科技公司在人工智能研究方面投入了大量资金,加上计算机的能力呈指数增长,使得近来不断冒出这类惊人的预言。
  根据最近一项调查,全球一半的人工智能专家认为,2040年前将研发出人类级别的机器智能;90%的专家认为,这一技术将在2075年前实现。一些人工智能专家谈到了有朝一日对人类大脑展开“逆向工程”的可能性。与此同时,有些杰出的科技领军人物警告称,该技术产生的后果是难以预料的。
  西方政府应该认真考虑人工智能发展在伦理范畴的影响。人们担忧的一点是,在这一领域进行的几乎所有研究都由总部位于美国的科技公司私下承担。其中一些最具雄心的投资是由谷歌(Google)做出的,比如它展开的量子计算研究以及今年对英国人工智能初创公司Deep Mind的收购。不过,尽管谷歌在收购Deep Mind后成立了一个伦理委员会,但局外人依然不清楚该公司在做什么,也不清楚它在控制这项技术、而不是在尽可能快地发展这项技术上投入了多少资源。随着这些技术逐步发展,公众监督的缺失可能会成为一个令人担忧的问题。
  话虽如此,我们还是应该正确看待计算机有朝一日或对人类构成挑战的可能性。科学家也许并不能肯定地说出,机器何时或是否将赶上或超越人类。
   但在局面发展到那一步之前,人类与计算机智能相互协作几乎肯定将有助于解决那些不这么做就无法解决的紧迫问题。例如,计算机研究分析大量数据的能力日益增强,未来几十年将在帮助人类应对气候变化和疾病上发挥巨大作用。因遥远未来可能发生的危险而在现在遏止计算机科技的发展——并放弃这种发展带来的好处——是愚蠢的。
  我们有充分理由乐观看待人工智能研究。没有证据表明科学家将难以控制计算机,即使它们发展到最先进的水平。但在这个领域,科技先驱们确实需要谨慎行事,而且必须意识到科学的发展总是能够出乎我们的意料。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2422917.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-02
下一篇 2022-08-02

发表评论

登录后才能评论

评论列表(0条)

保存