2018将迎来人工智能你不知道的阴暗面

2018将迎来人工智能你不知道的阴暗面,第1张

科学的尽头即是人类的毁灭,任何事物都是矛盾性的,当这个事物强大到不可想象的时候,任何一点点不利因素都会带来人类无法承受的灾难,人工智能我认为就是计算机科学的尽头,当他有一天不可控时会比核d还要可怕。

我们在一片对18岁照片的花样赞美中,迎来了又一个新年。

按说新年应该是开心的时候,但是刚刚跨年结束,抬头一看居然要上班了!不由得悲从心来……所以今天我们打算说点不那么开心的事。

最近几天,各种对2018年的科技预测层出不穷,其中对AI的畅想占了大头,内容差不多是一片喜庆祥和。

但事有两来,当我们开始从AI中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。

今天我们来预测几个,很可能在2018年进入我们眼帘的“人工智能负能量”。

毕竟做好准备,是解决问题的前提条件。

一、人工智能伦理问题开始出现个案

2017年1月,在加利福尼亚州阿西洛马举行的Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。

随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。

《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。

听起来颇有点科幻的味道,但是在各行各业开始部署AI,尤其开始利用AI进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。

比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如AI诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,AI系统是否能打破规则,自行其是?

这其中最著名的,大概就是去年谷歌批评上海交大某团队进行的“看脸定罪犯”研究。引发了媒体对于AI价值观的大量讨论。

在各个产业场景开始使用AI技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。

人类还从未真正讨论过这些。假如2018年人工智能的落地化足够快,伦理问题的苗头或许会临近。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2552526.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-06
下一篇 2022-08-06

发表评论

登录后才能评论

评论列表(0条)

保存