用svm建立的模型进行预测,怎么预测的数据完全一样啊?

用svm建立的模型进行预测,怎么预测的数据完全一样啊?,第1张

1、首先输入数据集,分析数据维度,可以看到共有0,1,2,3四个类别,如下图所示

2、然后导入svm工具包,没有安装sklearn的要先安装svm,如下图所示。

3、数据准备,这里的数据都是数值型变量,且没有空值,直接取X,y变量。

4、建立模型,并进行训练,如下图所示。

5、最后模型预测,有一组新的数据,根据模型预测它的分类,结果为rank=2,如下图所示就完成了。

不知道你要怎样比较预测值和真实值,比如计算一下残差值,或者计算一下均方误差之类看 在Linear Regression对话框,点Save按钮,会出现Linear Regression: Save对话框,在Predicted Values(预测值)和Residuals(残差)栏都选Unstandardized,会在数据表中输出预测值和残差,然后你想怎么比较都行。 判断模型是否有预测能力,其实就是模型检验,模型检验除了统计意义上的检验,还有实际意义上的检验,就是检验是否跟事实相符,比如收入与消费应该是正相关的,如果消费为被解释变量、收入为解释变量,如果收入的系数小于零,那肯定是不对的。 统计意义上的检验,包括参数的T检验,方程的F检验,还要检验残差是否白噪声。 检验模型是否具有外推预测能力,还可以这样做:比如,你收集了一个容量为50的样本,你可以用其中的48个样本点估计模型,然后估计另两个样本点,把估计值跟实际值做一个比较。

en . -s 3是回归模型:

-s svm_type : set type of SVM (default 0)

0 -- C-SVC

1 -- nu-SVC

2 -- one-class SVM

3 -- epsilon-SVR

4 -- nu-SVR

==============

libsvm_options:

-s svm_type : set type of SVM (default 0)

0 -- C-SVC

1 -- nu-SVC

2 -- one-class SVM

3 -- epsilon-SVR

4 -- nu-SVR

-t kernel_type : set type of kernel function (default 2)

0 -- linear: u'*v

1 -- polynomial: (gamma*u'*v + coef0)^degree

2 -- radial basis function: exp(-gamma*|u-v|^2)

3 -- sigmoid: tanh(gamma*u'*v + coef0)

4 -- precomputed kernel (kernel values in training_instance_matrix)

-d degree : set degree in kernel function (default 3)

-g gamma : set gamma in kernel function (default 1/k)

-r coef0 : set coef0 in kernel function (default 0)

-c cost : set the parameter C of C-SVC, epsilon-SVR, and nu-SVR (default 1)

-n nu : set the parameter nu of nu-SVC, one-class SVM, and nu-SVR (default 0.5)

-p epsilon : set the epsilon in loss function of epsilon-SVR (default 0.1)

-m cachesize : set cache memory size in MB (default 100)

-e epsilon : set tolerance of termination criterion (default 0.001)

-h shrinking: whether to use the shrinking heuristics, 0 or 1 (default 1)

-b probability_estimates: whether to train a SVC or SVR model for probability estimates, 0 or 1 (default 0)

-wi weight: set the parameter C of class i to weight*C, for C-SVC (default 1)

-v n: n-fold cross validation mode


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/11975675.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-20
下一篇 2023-05-20

发表评论

登录后才能评论

评论列表(0条)

保存