all as we konow,引用参考文献也就是如下三个,那么分别导入endnote改怎么使用呢?
11 中国知网
在你想要的文献里面,点引用,点击导出
在这里插入描述
文献如下,有一个cnki的文件夹
在这里插入描述
回到Endnote中
路径:File->import->file
在这里插入描述
此时文献导进endnote成功
12web of science
这个主要是用于我们查阅英文文献用到的
在这里插入描述
在这里插入描述
-接下来你会有一个这样的文件ciw结尾但是是ISI格式的文件
在这里插入描述
回到endnote中,我们上述提到是ISI文件,因此导入的时候需要切换如下
在这里插入描述
此时文献导入完成
在这里插入描述
13 谷歌学术
个人认为,这个检梭文献更快,同时应用也方便
需要检索文献可以参考这个site:google学术镜像
在这里插入描述
下载之后你会有一个scholar文件;导入Endnote如上述一样
在这里插入描述
在这里插入描述
导入成功
在这里插入描述
打开CSDN APP,看更多技术内容
插拔式java_Java Swing APIs可插拔式外观风格特性应用_七231f
Java Swing APIs可插拔式外观风格特性应用以下文字资料是由(历史新知网>参考链接: >是Lecun于1989年发表了《Backpropagation Applied to Handwritten Zip Code》是CNN的第一个实现网络,但是通读全文,找不到和CNN模型原理有关的解释说明。所以就很疑惑,为什么大家都认1989年。后来从《Backpropagation Applied to Handwritten Zip Code》中的参考文献找到了一片新大陆!第一次低谷:缺乏训练算法。第二次低谷:硬件资源不行,训练算法仍有待改进。
人工神经网络(ArtificialNeuralNetwork,ANN)最早叫做感知器(Perceptron)。早在1969年,MarvinMinsky出版了《Perceptrons》一书,其中有个著名观点:单层感知器无法解决XOR问题,而需要采用多层感知器(Multi-LayerPerceptrons,MLPs)才可以表达非线性函数,但此时并没有训练MLPs的算法,神经网络第一次陷入低谷。后来,来自美国的PaulWerbos在1974年的博士毕业论文中深刻分析了反向传播算法(BackPropagation,BP)对于训练神经网络的可能性,这是首次提出将BP应用于神经网络,但并没有发表相关学术论文。然后,YannLeCun大神于80年代博士在读期间,提出了神经网络的BP算法原型,并于1986年开始流行起来。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)