科学的尽头即是人类的毁灭,任何事物都是矛盾性的,当这个事物强大到不可想象的时候,任何一点点不利因素都会带来人类无法承受的灾难,人工智能我认为就是计算机科学的尽头,当他有一天不可控时会比核d还要可怕。
我们在一片对18岁照片的花样赞美中,迎来了又一个新年。
按说新年应该是开心的时候,但是刚刚跨年结束,抬头一看居然要上班了!不由得悲从心来……所以今天我们打算说点不那么开心的事。
最近几天,各种对2018年的科技预测层出不穷,其中对AI的畅想占了大头,内容差不多是一片喜庆祥和。
但事有两来,当我们开始从AI中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。
今天我们来预测几个,很可能在2018年进入我们眼帘的“人工智能负能量”。
毕竟做好准备,是解决问题的前提条件。
一、人工智能伦理问题开始出现个案2017年1月,在加利福尼亚州阿西洛马举行的Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。
随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。
《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。
听起来颇有点科幻的味道,但是在各行各业开始部署AI,尤其开始利用AI进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。
比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如AI诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,AI系统是否能打破规则,自行其是?
这其中最著名的,大概就是去年谷歌批评上海交大某团队进行的“看脸定罪犯”研究。引发了媒体对于AI价值观的大量讨论。
在各个产业场景开始使用AI技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。
人类还从未真正讨论过这些。假如2018年人工智能的落地化足够快,伦理问题的苗头或许会临近。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)