人工智能时代是信息化时代的延续和新生,今天在这个领域的每个微小的进步都会累积起来,直到再为我们推开一扇伟大时代的大门。
人类在出生时近1000亿个大脑神经元就已经产生和分化好,并且处在它们该存在的位置,等着建立神经网络。这时候的神经元还没有多少触突,相互之间也没有多少链接,新生儿的神经触突数不到成年人的三分之一。在婴幼儿的成长发育过程中,神经元迅速伸出触突,彼此建立起非常复杂的链接,相连的神经元可以传递电和化学信号,接近三岁的时候,触突的数量达到顶峰,此时的数量是成人的二倍,这段时间也正是人类学习和认知最快的时期,我们基本的生存技能,比如语言、图像识别和分类、运动都要在这个时候建立起来。此后的时间里,大脑不断优化和修剪神经元的链接,让信息的处理更加高效。在神经网络的建立过程中,链接的建立是随机的,但是修剪不是随机的,大脑不断根据外界信息和反馈来完成。最终形成的神经网络复杂且能高效处理数据,即便是相同环境里成长起来的同卵双胞胎也会有完全不同的两个大脑。
模仿生物神经系统建立的神经计算网络,基本原理就是一层一层处理和过滤信息,每一层的基本运算都很简单,无非是用加法和乘法来完成矩阵运算,但是运算中的各种参数因子是个未知数,只能让神经网络通过大量的数据来自己学习,这个学习的过程和孩子学习识图是一样的,大量各种形态的图像数据输入,对最终输出做出纠正,一旦发现输出错误就回退尝试新的参数设定,直到找到复合要求的输出。所以神经网络只关注于问题「可解」,并不强调「最优解」,每次解决和处理问题,都可以进一步优化网络参数,让网络适应更复杂的数据输入。
一直到2016年,GoogleDeepmind团队的AlphaGo战胜了职业九段李世石,才在世界范围内掀起了对人工神经网络的关注。这是一场彻底的胜利,AlphaGo的研发者并不懂围棋,打开AlphaGo程序也没人读得懂里面天书一样的各种参数,AlphaGo完全是靠自己学习围棋来达到了战胜人类的能力。最初的AlphaGo以CPU+GPU为运算单元,随着运算量的增加,GPU毕竟不是专为神经网络计算而设计,Google为了提升效率而自行设计了计算单元TPU。TPU是专为深度学习框架TensorFlow而定制的,改用TPU的AlphaGo提升更快,仅靠单机4个TPU就在随后的比赛里碾压了所有人类顶级棋手。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)