今天这一篇挺粗糙的,但是也是这段时间学sklearn的有感而发吧。
首先学sklearn的话,他有几个大模块的算法,前面的逻辑回归,线性回归,之前在看机器学习视频的时候,其实吴恩达老师讲的蛮详细的,里面的公式细节,都蛮清晰的,但是后来学到决策树,SVM,PCA,朴素贝叶斯的时候,虽然知道这个算法是干什么的,有了代码也知道怎么套用,但是里面的原理的理解还是缺陷性很大。
就比如朴素贝叶斯的原理,我能用例子讲出来,但是我就不太会用公式推导,决策树里面的分枝剪枝叶,怎么样用ID3和CART去选择特征变量,svm里面的距离公式也知道怎么推导,现在学PCA,公式我就没看懂,导致我用numpy去对特征矩阵进行PCAZ运算的时候就有一定的问题,但是直接调用sklearn包的话,就非常方便,直接代入进去就行。
怎么说呢,我感觉就是,这个东西要是不知道理论,只会掉包,最后的局限性很大,但是我单纯的看sklearn的书籍,我就很难去学到一些理论的推导问题。
之前朴素贝叶斯的距离推导公式死活不会,后来第二天睡醒了又看了看那个公式,又突然会了,就贼拉离谱哈哈哈。
好了不说了,继续去看PCA了,看完理论再去搞这些实践,冲鸭,加油
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)