1、首先输入数据集,分析数据维度,可以看到共有0,1,2,3四个类别,如下图所示。
2、然后导入svm工具包,没有安装sklearn的要先安装svm,如下图所示。
3、数据准备,这里的数据都是数值型变量,且没有空值,直接取X,y变量。
4、建立模型,并进行训练,如下图所示。
5、最后模型预测,有一组新的数据,根据模型预测它的分类,结果为rank=2,如下图所示就完成了。
不知道你要怎样比较预测值和真实值,比如计算一下残差值,或者计算一下均方误差之类看 在Linear Regression对话框,点Save按钮,会出现Linear Regression: Save对话框,在Predicted Values(预测值)和Residuals(残差)栏都选Unstandardized,会在数据表中输出预测值和残差,然后你想怎么比较都行。 判断模型是否有预测能力,其实就是模型检验,模型检验除了统计意义上的检验,还有实际意义上的检验,就是检验是否跟事实相符,比如收入与消费应该是正相关的,如果消费为被解释变量、收入为解释变量,如果收入的系数小于零,那肯定是不对的。 统计意义上的检验,包括参数的T检验,方程的F检验,还要检验残差是否白噪声。 检验模型是否具有外推预测能力,还可以这样做:比如,你收集了一个容量为50的样本,你可以用其中的48个样本点估计模型,然后估计另两个样本点,把估计值跟实际值做一个比较。en . -s 3是回归模型:-s svm_type : set type of SVM (default 0)
0 -- C-SVC
1 -- nu-SVC
2 -- one-class SVM
3 -- epsilon-SVR
4 -- nu-SVR
==============
libsvm_options:
-s svm_type : set type of SVM (default 0)
0 -- C-SVC
1 -- nu-SVC
2 -- one-class SVM
3 -- epsilon-SVR
4 -- nu-SVR
-t kernel_type : set type of kernel function (default 2)
0 -- linear: u'*v
1 -- polynomial: (gamma*u'*v + coef0)^degree
2 -- radial basis function: exp(-gamma*|u-v|^2)
3 -- sigmoid: tanh(gamma*u'*v + coef0)
4 -- precomputed kernel (kernel values in training_instance_matrix)
-d degree : set degree in kernel function (default 3)
-g gamma : set gamma in kernel function (default 1/k)
-r coef0 : set coef0 in kernel function (default 0)
-c cost : set the parameter C of C-SVC, epsilon-SVR, and nu-SVR (default 1)
-n nu : set the parameter nu of nu-SVC, one-class SVM, and nu-SVR (default 0.5)
-p epsilon : set the epsilon in loss function of epsilon-SVR (default 0.1)
-m cachesize : set cache memory size in MB (default 100)
-e epsilon : set tolerance of termination criterion (default 0.001)
-h shrinking: whether to use the shrinking heuristics, 0 or 1 (default 1)
-b probability_estimates: whether to train a SVC or SVR model for probability estimates, 0 or 1 (default 0)
-wi weight: set the parameter C of class i to weight*C, for C-SVC (default 1)
-v n: n-fold cross validation mode
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)