。
1 根据你的预测对象的特性选取合适的输入层、输出层和隐层神经元数目。
2 选择合适的神经网络训练函数。
3 保证足够的训练样本数据,并且确保这个训练样本数据有足够的精度能够反映需要预测的对象的特性。
谷歌人工智能写作项目:小发猫
2、BP神经网络的精度低,怎么解决?
建议用RBP神经网络进行训练如何提高bp神经网络的准确率。使用方法:
x=-1:01:5;
y=-1:01:5;
z=x^2y-01x+2y;
net=newrbe([x;y],z); %创建一个RBF网络
t=sim(net,[x;y]);%仿真未经训练的网络net
plot3(x,y,z,'rd');hold on
plot3(x,y,t,'b-');
3、怎么才能使bp神经网络预测的结果更准确
这个问的太哪个了吧,神经网络预测一般也就是对已有数据进行非线性拟合而已,简单的说,他只是一个拟合方法,只是与传统的拟合方法相比有一些优点。用神经网络预测也不会是一定很非常准确的。
4、采用什么手段使神经网络预测更加准确
优化神经网络结构。如BP神经网络改变隐层神经元数量、训练算法等;
使用其他神经网络。如Elman神经网络考虑了前一时刻的输出,比较适合用于预测,预测效果往往更好。RBF神经网络的训练速度很快,训练效果也很好。
改进的神经网络算法。例如BP神经网络增加动量项、自适应学习率等措施,防止陷入局部极小影响预测效果。
组合神经网络。取长补短,将全局搜索能力强的算法与局部逼近快的算法组合起来,如遗传算法优化初始权值,再训练。这种方法比较灵活,可以和许多算法融合。
全面考虑影响因素。未来的预测值受许多因素影响,所以应该在基于历史数据的基础上,充分考虑各种因素,考虑得越周全,预知信息越多,预测效果一般更好。
5、优化初始权值及阈值为什么可以提高bp神经网络识别率
bp的学习过程就是不断的网络训练工程,而训练的就是利用权值和阈值的激活函数计算输出的。权值与输入相乘,经过激活函数计算出的值与阈值比较,达到阈值的可输出,不满足的则返回继续训练。因此可以提高识别率。
6、bp神经网络遇到新的数据,就预测不准,怎么弄?
预测数据的话BP不是特别好用,最好用Elman反馈神经网络或者RNN循环神经网络,这些有记忆功能的网络比较好用。bp主要和你选择的隐含层数,和误差范围,学习率有关。你可以调节相关参数来改变神经网络,获得更精确的结果。
7、BP神经网络误差如何提高
你好,误差大,第一步需要尝试的是做归一化处理。有线性归一化,有对数函数归一化等等,这个你可以去网上搜索数据归一化方法,有相关的代码,应该。
第二部需要做出的改动是隐层节点数量,如果节点数量太多,那么结果的随机性就会很大,如果太少,那么复杂数据的规律计算不出来。多少层节点最合适,这个目前除了一个一个试没有更好的办法。但是你会发现每一个相同的结构计算出的结果却不尽相同,这个时候就需要考虑后续的问题。
第三步尝试,变换transfer function。麻烦你查查字典,因为我不是用中文学的神经网络。我姑且翻译成传输函数。传输函数在matlab中内建了3中 pureline logsig tansig。分别有不同的应用范围。因为没看到你的数据,我也不清楚具体应该推荐你用哪一种。不过你可以去网上搜索一下三种传输函数的特点。
如果有用请给“采纳”谢谢。
8、BP神经网络仿真时仿真结果准确率低。请问高手如何处理 5
是预测低还是拟合低?
如果是预测那没办法的,如果是拟合低,可以重新选择网络种类或者网络结构
神经网络 :神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。
神经网络中最基本的成分便是 神经元模型 。
M-P神经元模型:
感知机由两层神经元组成,分别为输入层、输出层。
以下是具体过程:
多层神经网络的拓扑结构如图:
如上图可知,多层网络由输入层、隐含层和输出层组成,顶层是输出层,底层是输入层,中间的便是隐含层。隐含层与输出层都具有功能神经元。
多层前馈神经网络的结构需要满足:
1、每层神经元必须与下一层完全互连
2、神经元之间不存在同层连接
3、神经元不可跨层连接
只需包含一个足够多神经元的隐层,就能以任意精度逼近任意复杂度的连续函数
BP神经网络由于学习能力太强大比较荣誉造成过拟合问题,故有两种策略来减缓过拟合的问题:
1、早停:将数据分成训练集和验证集,训练集学习,验证集评估性能,在训练过程中,若训练集的累积误差降低,而验证集的累积误差提高,则终止训练;
2、引入正则化:其基本思想是在误差目标函数中增加一个用于描述网络复杂程度的部分,有如连接权和阈值的平方和:
其中λ∈(0,1)用于对累积经验误差与网络复杂度这两项进行折中,常通过交叉验证法来估计。
神经网络的训练过程可看作一个参数寻优的过程,即寻找到适当的参数使得E最小。于是我们时常会谈及“全局最小”和“局部最小”。
1、全局最小:即全局最小解,在参数空间中,所有其他点的误差函数值均大于该点;
2、局部最小:即局部最小解,在参数空间中,其邻近的点的误差函数值均大于该点。
我们要达到局部极小点,很容易,只要满足梯度为零的点便是了,局部极小点可以有多个,但全局最小点只有一个。显然,我们追求的是全局最小,而非局部极小,于是人们通常采用以下策略来试图“跳出”局部极小,使其接近全局最小:
1、以多组不同参数值初始化多个神经网络,按标准方法训练,在迭代停止后,取其中误差最小的解作为最终参数;
2、使用随机梯度下降(在计算梯度时加入了随机因素),使得在局部最小时,计算的梯度仍可能不为0,从而可能跳出局部极小,继续进行迭代;
3、“模拟退火”技术,在每一步都以一定的概率接受比当前解更差的结果,但接受“次优解”的概率要随着迭代进行,时间推移而逐渐减低以确保算法的稳定。
1、RBF网络
单隐层前馈神经网络 ,使用径向基函数作为隐层神经元激活函数,输出层是对隐层神经元输出的线性组合。RBF网络可表示为:
2、ART网络
竞争型学习 (神经网络中一种常用的 无监督学习 策略),由 比较层、识别层、识别阈值和重置模块 组成。接收到比较层的输入信号后,识别层神经元相互竞争以产生获胜神经元,最简单的方式就是计算输入向量与每个识别层神经元所对应的模式类代表向量间的距离,距离小者获胜。若获胜神经元对应的代表向量与输入向量间 相似度大于识别阈值 ,则将输入样本归为该代表向量所属类别,网络 连接权 也会进行 更新 以保证后面接收到相似的输入样本时该模式类会计算出更大的相似度,使得这样的样本能够归于一类;如果 相似度不大于识别阈值 ,则 重置模块 会在 识别层 加一个神经元,其 代表向量 就 设置 为当前 输入向量 。
3、SOM网络
竞争型学习的无监督神经网络 ,将高维输入数据映射到低维空间(通常是二维),且保持输入数据在高维空间的拓扑结构。
4、级联相关网络
结构自适应网络 。
5、Elman网络
递归神经网络 。
6、Boltzmann机
基于能量的模型,其神经元分为显层与隐层,显层用于数据输入输出,隐层被理解为数据的内在表达。其神经元皆为布尔型,1为激活,0为抑制。
理论上,参数越多的模型其复杂程度越高,能完成更加复杂的学习任务。但是复杂模型的训练效率低下,容易过拟合。但由于大数据时代、云计算,计算能力大幅提升缓解了训练效率低下,而训练数据的增加则可以降低过拟合风险。
于是如何增加模型的复杂程度呢?
1、增加隐层数;
2、增加隐层神经元数
如何有效训练多隐层神经网络?
1、无监督逐层训练:每次训练一层隐节点,把上一层隐节点的输出当作输入来训练,本层隐结点训练好后,输出再作为下一层的输入来训练,这称为预训练,全部预训练完成后,再对整个网络进行微调。“预训练+微调”即把大量的参数进行分组,先找出每组较好的设置,再基于这些局部最优的结果来训练全局最优;
2、权共享:令同一层神经元使用完全相同的连接权,典型的例子是卷积神经网络。这样做可以大大减少需要训练的参数数目。
深度学习 可理解为一种特征学习或者表示学习,是通过 多层处理 ,逐渐将初始的 低层特征表示 转化为 高层特征表示 后,用 简单模型 即可完成复杂的分类等 学习任务 。
担任下列专家委员会委员:
(1)中国计算机学会杰出会员、资深会员
(2)中国计算机学会人工智能与模式识别专委会委员
(3)中国计算机学会多值逻辑与模糊逻辑专委会常委委员
(4)中国人工智能学会知识工程与分布式智能专业委员会委员
(5)中国人工智能学会机器学学习专业委员会委员
(6)中国人工智能学会粗糙集与软计算专业委员会常委委员
(7)江苏省计算机学会人工智能专业委员会常委委员
(8)江苏省计算机学会大数据专家委员会委员
担任下列国际期刊编委:
(1)《IJCI: International Journal of Collaborative Intelligence》主编
(2)《JDCTA: Journal of Digital Contents Technology and Application》副主编
(3)《JCIT: Journal of Convergence Information Technology》编委
(4)《AISS: Advances in Information Sciences and Service Sciences》编委
(5)《IJACT: International Journal of Advancements in Computing Technology》编委
(6)《JCP: Journal of Computers》编委
(7)《JSW: Journal of Software》编委
(8)《IPL:CInformation Processing Letters》编委
(9)《AMIS: Applied Mathematics & Information Sciences》编委
担任下列国际期刊特约编辑:
(1)《Applied Mathematics & Information Sciences》特约编辑(Guest Editor)
(2)《INFORMATION》的特约编辑(Guest Editor)
(3)《Neurocpmputing》特约编辑(Guest Editor)
(4)《The Scientific World Journal》的特约编辑(Guest Editor)
(5)《Mathematical Problems in Engineering》的特约编辑(Guest Editor)
(6)《Journal of Computers (JCP)》特约编辑(Guest Editor)
(7)《Journal of Software (JSW)》特约编辑(Guest Editor)
(8)《Journal of Networks (JNW)》的特约编辑(Guest Editor)
担任下列国际SCI源刊特约审稿专家:
(1)《Journal of Information Science》
(2)《Applied Soft Computing》
(3)《Information Sciences》
(4)《Computational Statistics and Data Analysis》
(5)《IEEE Transactions on Fuzzy Systems》
(6)《International Journal of Pattern Recognition and Artificial Intelligence》
(7)《Neurocpmputing》
(8)《Soft Computing》
(9)《Pattern Recognition》
(10)《Pattern Recognition Letters》
担任下列国内核心期刊审稿专家:
(1)《计算机学报》
(2)《软件学报》
(3)《计算机研究与发展》
(4)《中国科学》
(5)《电子学报》
(6)《模式识别与人工智能》
(7)《计算机科学》
(8)《小型微型计算机系统》
(9)《计算机应用研究》
(10)《计算机工程与科学》
(11)《微电子学与计算机》
担任下列国内外会议PC Chair or Member:
(1)全国智能信息处理学术会议(NCIIP)程序委员会主席
(2)江苏省人工智能学术会议程序委员会主席
(3)2012\2013\2014年信息、智能与计算国际研讨会主席
(4)粒度计算国际会议程序委员会委员
(5)智能信息处理国际会议程序委员会委员
(6)中国机器学习会议程序委员会委员
(7)中国粗糙集与软计算、中国粒计算、中国Web智能联合会议程序委员会委员等。
丁世飞研究方向
模式识别与人工智能
机器学习与数据挖掘
粗糙集与软计算
粒度计算
感知与认知计算
丁世飞学术成果
已完成的项目:
1 2001-2003参加并完成国家自然科学基金项目“信息模式识别理论及其在地学中的应用”的研究(项目编号: 40074001)
2 1999-2001主持完成省教育厅项目“信息模式识别理论及其在害虫预测预报中的应用研究”
3 1998-2000主持完成省教育厅项目“农作物病虫害现代生物数学预报技术研究”
4 2005-2006主持中国博士后科学基金项目“视感知学习理论及其应用研究”(No2005037439)
5 2004-2006主持山东省作物生物学国家重点实验室开放基金项目“山东省玉米病虫害数字模式分类的研究”(No20040010)
6 2006-2008参加国家自然科学基金项目“多元数据的信息模式研究与地学数据分析”(No40574001)
7 2006-2009参加国家863高技术项目“基于感知机理的智能信息处理技术”(No 2006AA01Z128)
8 2007-2010主持中国科学院智能信息处理重点实验室开放基金项目“基于认知的模式特征分析理论与算法研究”(NoIIP2006-2)
9 2010-2012主持江苏省基础研究计划(自然科学基金)项目“面向高维复杂数据的粒度知识发现研究”(NoBK2009093)
102011-2012主持北京邮电大学智能通信软件与多媒体北京市重点实验室开放课题 “粒度SVM方法与应用研究”
11 2010-2012参加国家自然科学基金项目“分布式计算环境下的并行数据挖掘算法与理论研究”(No60975039)
12 2011-2013主持中国科学院智能信息处理重点实验室开放基金项目“高维复杂数据的粒度支持向量机理论与算法研究”(NoIIP2010-1)
目前正在进行的项目:
1 20131-201712主持国家重点基础研究发展计划(973计划)课题“脑机协同的认知计算模型”(No2013CB329502)
2 20141-201712主持国家自然科学基金项目“面向大规模复杂数据的多粒度知识发现关键理论与技术研究” (No 61379101)
3 20111-201312参加国家自然科学基金项目“多元空间的模式分析方法研究及其在测量中的应用”(No41074003)
已出版著作:
1 丁世飞,靳奉祥,赵相伟著 现代数据分析与信息模式识别 北京:科学出版社,2012
2 丁世飞编著 人工智能 北京: 清华大学出版社, 2010
3 史忠植著 知识工程 北京: 清华大学出版社, 2011 (丁世飞等参编)
4 史忠植著 神经网络, 北京: 高等教育出版社, 2009 (丁世飞, 许新征等参编)
已发表论文:
2014年
[1] Shifei Ding, Hongjie Jia, Liwen Zhang, Fengxiang Jin Research of semi-supervised spectral clustering algorithm based on pairwise constraints Neural Computing and Applications, 2014,24(1):211-219 (SCI, EI)
[2] Shifei Ding, Hongjie Jia, Jinrong Chen, Fengxiang Jin Granular Neural NetworksArtificial Intelligence Review, 2014,41(3): 373-384 (SCI, EI)
[3] Shifei Ding, Huajuan Huang, Xinzheng Xu, Jian Wang Polynomial Smooth Twin Support Vector Machines Applied Mathematics & Information Sciences, 2014, 8(4) (SCI,EI)
[4] Shifei Ding, Zhongzhi Shi Track on Intelligent Computing and Applications Neurocomputing, 2014, vol130, 1-2(SCI, EI)
[5] Shifei Ding, Xiaopeng Hua Recursive least squares projection twin support vector machines Neurocomputing, 2014, vol130, 3-9 (SCI, EI)
[6]花小朋,丁世飞 局部保持对支持向量机 计算机研究与发展, 2014, 51(3)(EI)
2013年
[1] Xinzheng Xu, Shifei Ding, Weikuan Jia, Gang Ma, Fengxiang Jin Research of assembling optimized classification algorithm by neural network based on Ordinary Least Squares (OLS) Neural Computing and Applications, 2013,22(1):187-193(SCI, EI)
[2] Shifei Ding, Hui Li, Chunyang Su, Junzhao Yu, Fengxiang Jin Evolutionary artificial neural networks: a review Artificial Intelligence Review, 2013, 39(3):251-260 (SCI, EI)
[3] Li Hui, Ding Shifei Research of Individual Neural Network Generation and Ensemble Algorithm Based on Quotient Space Granularity Clustering Applied Mathematics & Information Sciences, 2013, 7(2):701-708 (SCI, EI)
[4] Hui Li, Shifei Ding Research and Development of Granular Neural Networks Applied Mathematics & Information Sciences, 2013, 7(3):1251-1261(SCI, EI)
[5] Shifei Ding, Bingjuan Qi, Hongjie Jia, Hong Zhu Research of Semi-supervised Spectral Clustering Based on Constraints Expansion Neural Computing and Applications, 2013, 22 (Suppl 1):405-410 (SCI, EI)
[6] Shifei Ding, Yanan Zhang, Jinrong Chen, Weikuan Jia Research on Using Genetic Algorithms to Optimize Elman Neural Networks Neural Computing and Applications, 2013, 23(2):293-297(SCI, EI)
[7] Hua-juan Huang, Shi-fei Ding, Zhong-zhi Shi Primal least squares twin support vector regression Journal of Zhejiang University SCIENCE C, 2013, 14(9):722-732 (SCI, EI)
[8] Shifei Ding, Youzhen Han, Junzhao Yu, Yaxiang Gu A fast fuzzy support vector machine based on information granulation Neural Computing and Applications, 2013, 23(suppl 1):S139-S144(SCI, EI)
[9] 黄华娟,丁世飞 多项式光滑孪生支持向量回归机 微电子学与计算机, 2013, 30(10):5-8
[10] 丁世飞,黄华娟 加权光滑CHKS孪生支持向量机 软件学报, 2013, 24(11):2548-2557
[11] 贾洪杰,丁世飞基于邻域粗糙集约减的谱聚类算法南京大学学报自然科学版,2013, 49(5):619-627
[12] Hong Zhu,Shifei Ding, Xinzheng Xu, Li Xu A parallel attribute reduction algorithm based on Affinity Propagation clustering Journal of Computers, 2013, 8(4):990-997 (EI)
[13] Hong Zhu, Shifei Ding, Han Zhao, Lina Bao Attribute granulation based on attribute discernibility and AP algorithm Journal of Software, 8(4):834-841(EI)
[14] Yanan Zhang, Shifei Ding, Xinzheng Xu, Han Zhao, Wanqiu Xing An Algorithm Research for Prediction of Extreme Learning Machines Based on Rough Sets Journal of Computers, 2013, 8(5): 1335-1342(EI)
[15] Hui Li, Shifei Ding A Novel Neural Network Classification Model based on Covering and Affinity Propagation Clustering Algorithm Journal of Computational Information Systems, 2013, 9(7):2565-2573 (EI)
[16] Shifei Ding, Junzhao Yu, Huajuan Huang, Han Zhao Twin Support Vector Machines Based on Particle Swarm Optimization Journal of Computers, 2013, 8(9): 2296-2303 (EI)
[17] Huajuan Huang,Shifei Ding, Fulin Wu Invasive Weed Optimization Algorithm for Optimizating the Parameters of Mixed Kernel Twin Support Vecotr Machines Journal of Computers, 2013, 8(8): 2077-2084 (EI)
[18] Hongjie Jia, Shifei Ding, Hong Zhu, Fulin Wu, Lina Bao A Feature Weighted Spectral Clustering Algorithm Based on Knowledge Entropy Journal of Software, 2013, 8(5): 1101-1108 (EI)
[19] Tongfeng Sun, Shifei Ding, Zihui Ren Novel Image Recognition Based on Subspace and SIFT Journal of Software, 2013, 8(5): 1109-1116(EI)
[20] Shifei Ding, Fulin Wu, Ru Nie, Junzhao Yu, Huajuan Huang Twin Support Vector Machines Based on Quantum Particle Swarm Optimization Journal of Software, 2013, 8(7): 1743-1750 (EI)
[21] Ding Shifei, Zhang Yanan, Xu Xinzheng, Bao Lina A novel extreme learning machine based on hybrid kernel function Journal of Computers,2013, 8(8):2110-2117(EI)
[22] Shifei Ding, Huajuan Huang, Ru Nie Forecasting Method of Stock Price Based on Polynomial Smooth Twin Support Vector Regression Lecture Notes in Computer Science, 2013, Volume 7995, 2013, pp 96-105 (EI)
2012年
[1]Shifei Ding, Hong Zhu,Weikuan Jia,Chunyang Su A survey on feature extraction for pattern recognitionArtificial Intelligence Review,2012, 37(3):169-180 (SCI, EI)
[2] Shifei Ding,Li Xu,Chunyang Su,Fengxiang Jin An optimizing method of RBF neural network based on genetic algorithm Neural Computing and Applications, 2012, 21(2):333-336 (SCI, EI)
[3] Shifei Ding,Bingjuan Qi Research Of granular support vector machine Artificial Intelligence Review, 2012, 38(1):1-7 (SCI, EI)
[4] Xin-zheng XU, Shi-fei DING, Zhong-zhi SHI, Hong ZHU Optimizing radial basis function neural network based on rough sets and affinity propagation clustering algorithm Journal of Zhejiang University-SCIENCE C (Computers & Electronics), 2012,13(2):131-138 (SCI, EI)
[5] Bingjuan Qi,Shifei Ding, Huajuan Huang, Junzhao Yu A Support Vector Extraction Method based on Clustering MembershipInternational Journal of Digital Content Technology and its Applications, 2012, 6(13):1-10 (EI)
[6] Chang Tong, Shi-fei Ding, Hong Zhu, Hongjie Jia A Granularity Attribute Reduction Algorithm Based on Binary Discernibility Matrix International Journal of Advancements in Computing Technology, 2012, 4(12):213-221 (EI)
[7] Xiaopeng Hua, Shifei Ding Matrix Pattern Based Projection Twin Support Vector Machines International Journal of Digital Content Technology and its Applications, 2012, 6(20):172-181 (EI)
[8] Junzhao Yu, Shifei Ding, Huajuan Huang Twin Support Vector Machines Based on Rough Sets International Journal of Digital Content Technology and its Applications, 2012, 6(20):493-500 (EI)
[9] Huajuan Huang, Shifei Ding A Novel Granular Support Vector Machine Based on Mixed Kernel Function International Journal of Digital Content Technology and its Applications, 2012, 6(20):484-492 (EI)
[10] Shifei Ding(Guest editorial) Special Issue: Advances in Information and Computers, Journal of Computers, 2012, 7(10):2351-2353(EI)
[11] Shifei Ding(Guest editorial) Special Issue: Advances in Information and Networks Journal of Networks, 2012, 7(7):1007-1008(EI)
(被EI收录, 收录号:20123415368412)
[12] Shifei Ding(Guest editorial) Special Issue: Advances in Information and Networks Journal of Software, 7(9):1923-1924 (EI)
[13] Shifei Ding, Zhentao Yu (Guest editorial) Special Issue: Advances in Computers and Electronics Engineering Journal of Computers, 2012, 7(12):2851-2852 (EI)
[14]丁世飞, 朱红, 许新征, 史忠植 基于熵的模糊信息测度研究 计算机学报, 201235(4):796-801(EI)
[15] 朱红,丁世飞, 许新征 基于改进属性约简的细粒度并行AP聚类算法 计算机研究与发展, 2012, 49(12):2638-2644 (EI)
[16] 许新征,丁世飞,史忠植,赵作鹏,朱红一种基于QPSO的脉冲耦合神经网络参数的自适应确定方法 模式识别与人工智能, 2012,25(6): 909-915(EI)
[17] 马刚,丁世飞, 史忠植 基于极速学习的粗糙RBF神经网络 微电子学与计算机, 2012, 29(8):9-14
2011年
[1]Shifei Ding, Weikuan Jia, Chunyang Su, et al Research of Neural Network Algorithm Based on Factor Analysis and Cluster Analysis Neural Computing and Applications, 2011, 20(2): 297-302 (SCI,EI)
[2]Shifei Ding, Chunyang Su, Junzhao Yu An Optimizing BP Neural Network Algorithm Based on Genetic Algorithm Artificial Intelligence Review, 2011, 36Algorithm Artificial Intelligence Review, 2011, 36(2): 153-162 (SCI, EI)
[3]Shifei Ding, Weikuan Jia, Chunyang Su, et al Research of Neural Network Algorithm Based on Factor Analysis and Cluster Analysis Neural Computing and Applications, 2011, 20(2): 297-302 (SCI, EI)
[4]Shifei Ding, Chunyang Su, Junzhao Yu An Optimizing BP Neural Network Algorithm Based on Genetic Algorithm Artificial Intelligence Review, 2011, 36(2): 153-162 (SCI, EI)
[5]Ding Shifei, Qian Jun, Xu Li, Zhao Xiangwei, Jin Fengxiang A Clustering Algorithm Based on Information Visualization International Journal of Digital Content Technology and its Applications, 2011, 5(1): 26-31 (EI)
[6]Shifei Ding, Yu Zhang, Li Xu, Jun Qian A Feature Selection Algorithm Based on Tolerant Granule Journal of Convergence Information Technology, 2011, 6(1): 191-195 (EI)
[7]Ding Shifei, Li Jianying, Xu Li, Qian Jun Research Progress of Granular Computing (GrC) International Journal of Digital Content Technology and its Applications, 2011, 5(1): 162-172 (EI)
[8]Ding Shifei, Qian Jun, Xu Li, Zhao Xiangwei, Jin Fengxiang A Clustering Algorithm Based on Information VisualizationInternational Journal of Digital Content Technology and its Applications, 2011, 5(1): 26-31 (EI)
[9]Shifei Ding, Yu Zhang, Li Xu, Jun Qian A Feature Selection Algorithm Based on Tolerant Granule Journal of Convergence Information Technology, 2011, 6(1): 191-195 (EI)
[10]Ding Shifei, Li Jianying, Xu Li, Qian Jun Research Progress of Granular Computing (GrC) International Journal of Digital Content Technology and its Applications, 2011, 5(1): 162-172 (EI)
[11]Shifei DING, Jinrong CHEN, Xinzheng XU, Jianying LI Rough Neural Networks: A review Journal of Computational Information Systems, 2011, 7(7): 2338-2346(EI)
[12]Shifei Ding, Xinzheng Xu, Hong Zhu Studies on Optimization Algorithms for Some Artificial Neural Networks Based on Genetic Algorithm (GA) Journal of Computers, 2011, 6 (5):939-946 (EI)
[13]Shifei DING, Yaxiang GU A Fuzzy Support Vector Machine Algorithm with Dual Membership Based on Hypersphere Journal of Computational Information Systems, 2011, 7(6): 2028-2034 (EI)
[14]丁世飞, 齐丙娟, 谭红艳 支持向量机理论与算法研究综述 电子科技大学学报,2011, 40(1): 2-10 (EI)
[15] 贾伟宽, 丁世飞, 许新征, 苏春阳, 史忠植 基于Shannon熵的因子特征提取算法研究 模式识别与人工智能, 2011, 24(3): 327-331 (EI)
2010年以前
[1] Shifei Ding, Weikuian Jia, Xinzheng Xu, et al Neural Networks Algorithm Based on Factor Analysis Lecture Notes in Computer Science, Vol6063/2010, pp319-324 (EI)
[2] Shifei Ding, Weikuan Jia, Chunyang Su, et al An improved BP Neural Netwok Algorithm Based on Factor Analysis Journal of Convergence Information Technology, 2010, 5(4): 103-108 (EI)
[3] Shifei Ding, Li Xu, Hong Zhu, Liwen Zhang Research and Progress of Cluster Algorithms based on Granular Computing International Journal of Digital Content Technology and its Applications, 2010, 4(5): 96-104 (EI)
[4] Shifei Ding, Li Xu, Chunyang Su, Hong Zhu Using Genetic Algorithms to Optimize Artificial Neural Networks, Journal of Convergence Information Technology, 2010, 5(8): 54-62 (EI)
[5] Shifei Ding, Yongping Zhang, Xiaofeng Lei et al Research on a principal components decision algorithm based on information entropy Journal of Information Science, 2009, 35(1):120-127 (SCI, EI)
[6]Shifei Ding, Chunyang Su, Weikuan Jia, Fengxiang Jin, Zhongzhi Shi Several Progress of Semi-Supervised Learning Journal of Information & Computational Science, 2009, 6(1): 211-217 (EI)
[7] Shi-Fei Ding, Shi-Xiong Xia, Feng-Xiang Jin, Zhong-Zhi Shi Novel Fuzzy Information Proximity Measures Journal of Information Science, 2007, 33 (6):678-685 (SCI, EI)
[8] Ding Shifei, Shi Zhongzhi Supervised Feature Extraction Algorithm Based on Improved Polynomial Entropy Journal of Information Science, 32(4): 309-315,20068 (SCI, EI)
[9] Ding Shifei, Shi Zhongzhi Studies on Incidence Pattern Recognition Based on Information Entropy Journal of Information Science, 31(6):497-502,200512 (SCI, EI)
[10] Ding Shifei, Jin Fengxiang Information characteristics of discrete K-L transform based on information entropy Transactions Nonferrous Metals Society of China, 20036(SCI ,EI)
[11] Shifei Ding, Zhongzhi Shi, Xiaoying Wang Symmetric Cross Entropy and Information Feature Compression Algorithm Journal of Computational Information Systems, 1(2): 247-252 , 20056 (EI)
[12] Ding Shifei, Shi Zhongzhi Studies on Information Clustering Algorithm Based on MID Chinese Journal of Electronics, Vol15 No4A, pp918-920, 2006 (SCI, EI)
[13] Ding Shifei, Shi Zhongzhi Divergence-based Supervised Information Feature Compression AlgorithmLecture Notes in Computer Science, Vol 3971/2006, pp 1421-1426(SCI, EI)
[14] Shifei Ding, Zhongzhi Shi A Novel Supervised Information Feature Compression Algorithm Lecture Notes in Computer Science, Vol 3991/2006, pp 777-780 (SCI, EI)
[15] Shifei Ding, Zhongzhi Shi, Yuncheng Wang,and Fengxiang Jin Optimization Feature Compression and FNN Realization Lecture Notes in Control and Information Science, Vol 344/2006, pp 951-956(SCI, EI)
[16] Shifei Ding, Zhongzhi Shi, and Fengxiang Jin Supervised Feature Extraction Algorithm Based on Continuous Divergence Criterion Lecture Notes in Artificial Inteligence, Vol 4114/2006, pp268-277 (SCI, EI)
[17] 丁世飞, 贾伟宽, 许新征, 苏春阳 基于PLS的Elman神经网络算法研究 电子学报, 2010, 38(2A): 71-75 (EI)
[18] 许新征, 丁世飞, 史忠植, 贾伟宽 图像分割的新理论何新方法 电子学报, 2010, 38(2A): 76-82(EI)
[19] 丁世飞,靳奉祥 Fuzzy-Grey信息集成模式识别算法的研究 计算机辅助设计与图形学学报, 2004, 16(3):275-278 (EI)
[20] 丁世飞,靳奉祥,史忠植 基于PLS的信息特征压缩算法 计算机辅助设计与图形学学报, 2005, 17(2):368-371 (EI)
[21] 丁世飞,史忠植 基于广义距离的直接聚类算法研究计算机研究与发展,2007, 44(4): 674-679(EI)
[22] 丁世飞,黄华娟 加权光滑CHKS孪生支持向量机 软件学报, 2013, 24(11):2548-2557(EI)
丁世飞,获奖情况
1 2007年获全国优秀博士学位论文提名奖
2 2006年获山东省优秀博士学位论文奖
3 2007年获山东高等学校优秀科研成果二等奖,第1位
4 2006年获中国科学院计算技术研究所优秀博士后出站报告
4 2004年获山东高等学校优秀科研成果二等奖,第1位
5 2001年获山东省省级教学成果三等奖,第4位
matlab训练神经网络直接用编程实现
下面是一个ELMAN神经网络编程例子(直接新建一个M文件然后输入程序)
P=[0000 0055 0113 0173 0235 0299 0365 0432 0502 0573;
0645 0719 0795 0872 0950 1029 1109 1190 1273 1356;
1440 1525 1611 1698 1785 1873 1962 2051 2141 2232;
2323 2414 2506 2599 2692 2786 2880 2974 3069 3164;
3260 3356 3452 3549 3645 3743 3840 3938 4036 4135;
4234 4333 4432 4532 4632 4732 4832 4933 5034 5136;
5237 5339 5442 5544 5648 5751 5855 5960 6065 6169;
6274 6380 6486 6592 6699 6805 6913 7020 7128 7236;
7345 7454 7563 7672 7782 7892 8003 8114 8255 8336;
8448 8560 8673 8786 8899 9012 9126 9240 9355 9470;
9585 9700 9816 9932 10048 10165 10282 10400 10517 10635;
10754 10872 10991 11110 11229 11348 11467 11587 11707 11827;
11947 12067 12188 12308 12429 12550 12671 12792 12912 13034;
13155 13397 13197 13519 13640 13761 13883 14004 14125 14247;
14368 14470 14610 14731 14852 14973 15094 15215 15336 15456]';
T=[0 10 20 30 40 50 60 70 80 90;
100 110 120 130 140 150 160 170 180 190;
200 210 220 230 240 250 260 270 280 290;
300 310 320 330 340 350 360 370 380 390;
400 410 420 430 440 450 460 470 480 490;
500 510 520 530 540 550 560 570 580 590;
600 610 620 630 640 650 660 670 680 690;
700 710 720 730 740 750 760 770 780 790;
800 810 820 830 840 850 860 870 880 890;
900 910 920 930 940 950 960 970 980 990;
1000 1010 1020 1030 1040 1050 1060 1070 1080 1090;
1100 1110 1120 1130 1140 1150 1160 1170 1180 1190;
1200 1210 1220 1230 1240 1250 1260 1270 1280 1290;
1300 1310 1320 1330 1340 1350 1360 1370 1380 1390;
1400 1410 1420 1430 1440 1450 1460 1470 1480 1490;]';
pp=reshape(P,1,size(P,1)size(P,2));
tt=reshape(T,1,size(T,1)size(T,2));
pp_max=11max(pp);
pp_min=min(pp);
pp=(pp-pp_min)/(pp_max-pp_min);
tt_max=11max(tt);
tt_min=min(tt);
tt=(tt-tt_min)/(tt_max-tt_min);
net=newelm([0 1],[11,1],{'tansig','purelin'});
nettrainFcn='trainlm';
nettrainParamepochs = 1000;
nettrainParamgoal=0;
net=train(net,pp,tt);
p_input=input('input any data among P\n data=');
pp_input=(p_input-pp_min)/(pp_max-pp_min);
t_output=sim(net,pp_input);
tt_output=t_output(tt_max-tt_min)+tt_min;
fprintf('result is %f\n',tt_output);
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)