SVM算法-推导

SVM算法-推导,第1张

第一部分:从几何意义到数学表达

第三部分:SMO

求解第二部分最后推导出的最小化问题,每次固定两个lambda,由于有最后一个条件限制:lambdaiyi + lambdaj yj = const,labmdai可以用lambdaj表达出来,最小化函数是一个抛物线,开口朝上,求导,令导数为0,获得没有限制的最优化问题,由于lambdai >= 0(第1个限制条件),做一个clipping,获得在限制条件下的lambdai最优解,然后也能求得lambdaj,就完成了一次lambdai和lambdaj的更新迭代。

一般取最违反KKT条件的lambdai和lambdaj来做更新。

svm软间隔

svm的核函数选择

一般选择高斯核函数,线性核函数是高斯核函数的一个特例;在特定的参数下,sigmoid核函数和高斯核函数具有类似的作用;相比于多项式核函数,高斯核函数的参数更少,更好调,当然,如果能把多项式核函数的参数调好,有可能会获得更好的效果。对于特征数量非常大的情况,会更倾向于使用线性核函数。

为什么要转化为对偶问题

高斯核函数无限维的理解

SVM是Support Vector Machine 的缩写,翻译过来就是支持向量机,属于一种机器学习算法,类似于人工神经网络,但是分类的效果好于神经网络,而且算法固定,不会出现网络输出不收敛或者随机性较大的情况。

svm本身是一个二元分类器,你要进行多元分类,必须构造多分类算法,常见的是 一对一 和 一对多 算法。网上关于支持向量机的论文很多,常用的计算工具有基于 MATLAB 的 OSU-SVM 工具包 和 LS-SVM 工具包,效果都还不错。

以上就是关于SVM算法-推导全部的内容,包括:SVM算法-推导、svm在多类分类算法中的分析和应用、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10111223.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-05
下一篇 2023-05-05

发表评论

登录后才能评论

评论列表(0条)

保存