求一用MATLAB 语言编写的SVM回归程序,谢谢

求一用MATLAB 语言编写的SVM回归程序,谢谢,第1张

拉格朗日

function y=lagrange(x0,y0,x)

n=length(x0)m=length(x)

for i=1:m

z=x(i)

s=0.0

for k=1:n

p=1.0

for j=1:n

if j~=k

p=p*(z-x0(j))/(x0(k)-x0(j))

end

end

s=p*y0(k)+s

end

y(i)=s

end

SOR迭代法的Matlab程序

function [x]=SOR_iterative(A,b)

% 用SOR迭代求解线性方程组,矩阵A是方阵

x0=zeros(1,length(b))% 赋初值

tol=10^(-2)% 给定误差界

N=1000% 给定最大迭代次数

[n,n]=size(A)% 确定矩阵A的阶

w=1% 给定松弛因子

k=1

% 迭代过程

while k=N

x(1)=(b(1)-A(1,2:n)*x0(2:n)')/A(1,1)

for i=2:n

x(i)=(1-w)*x0(i)+w*(b(i)-A(i,1:i-1)*x(1:i-1)'-A(i,i+1:n)*x0(i+1:n)')/A(i,i)

end

if max(abs(x-x0))=tol

fid = fopen('SOR_iter_result.txt', 'wt')

fprintf(fid,'\n********用SOR迭代求解线性方程组的输出结果********\n\n')

fprintf(fid,'迭代次数: %d次\n\n',k)

fprintf(fid,'x的值\n\n')

fprintf(fid, '%12.8f \n', x)

break

end

k=k+1

x0=x

end

if k==N+1

fid = fopen('SOR_iter_result.txt', 'wt')

fprintf(fid,'\n********用SOR迭代求解线性方程组的输出结果********\n\n')

fprintf(fid,'迭代次数: %d次\n\n',k)

fprintf(fid,'超过最大迭代次数,求解失败!')

fclose(fid)

end

Matlab中龙格-库塔(Runge-Kutta)方法原理及实现龙格-库塔(Runge-Kutta)方法是一种在工程上应用广泛的高精度单步算法。由于此算法精度高,采取措施对误差进行抑制,所以其实现原理也较复杂。该算法是构建在数学支持的基础之上的。龙格库塔方法的理论基础来源于泰勒公式和使用斜率近似表达微分,它在积分区间多预计算出几个点的斜率,然后进行加权平均,用做下一点的依据,从而构造出了精度更高的数值积分计算方法。如果预先求两个点的斜率就是二阶龙格库塔法,如果预先取四个点就是四阶龙格库塔法。一阶常微分方程可以写作:y'=f(x,y),使用差分概念。

(Yn+1-Yn)/h= f(Xn,Yn)推出(近似等于,极限为Yn')

Yn+1=Yn+h*f(Xn,Yn)

另外根据微分中值定理,存在0t1,使得

Yn+1=Yn+h*f(Xn+th,Y(Xn+th))

这里K=f(Xn+th,Y(Xn+th))称为平均斜率,龙格库塔方法就是求得K的一种算法。

利用这样的原理,经过复杂的数学推导(过于繁琐省略),可以得出截断误差为O(h^5)的四阶龙格库塔公式:

K1=f(Xn,Yn)

K2=f(Xn+h/2,Yn+(h/2)*K1)

K3=f(Xn+h/2,Yn+(h/2)*K2)

K4=f(Xn+h,Yn+h*K3)

Yn+1=Yn+h*(K1+2K2+2K3+K4)*(1/6)

所以,为了更好更准确地把握时间关系,应自己在理解龙格库塔原理的基础上,编写定步长的龙格库塔函数,经过学习其原理,已经完成了一维的龙格库塔函数。

仔细思考之后,发现其实如果是需要解多个微分方程组,可以想象成多个微分方程并行进行求解,时间,步长都是共同的,首先把预定的初始值给每个微分方程的第一步,然后每走一步,对多个微分方程共同求解。想通之后发现,整个过程其实很直观,只是不停的逼近计算罢了。编写的定步长的龙格库塔计算函数:

function [x,y]=runge_kutta1(ufunc,y0,h,a,b)%参数表顺序依次是微分方程组的函数名称,初始值向量,步长,时间起点,时间终点(参数形式参考了ode45函数)

n=floor((b-a)/h)%求步数

x(1)=a%时间起点

y(:,1)=y0%赋初值,可以是向量,但是要注意维数

for ii=1:n

x(ii+1)=x(ii)+h

k1=ufunc(x(ii),y(:,ii))

k2=ufunc(x(ii)+h/2,y(:,ii)+h*k1/2)

k3=ufunc(x(ii)+h/2,y(:,ii)+h*k2/2)

k4=ufunc(x(ii)+h,y(:,ii)+h*k3)

y(:,ii+1)=y(:,ii)+h*(k1+2*k2+2*k3+k4)/6

%按照龙格库塔方法进行数值求解

end

调用的子函数以及其调用语句:

function dy=test_fun(x,y)

dy = zeros(3,1)%初始化列向量

dy(1) = y(2) * y(3)

dy(2) = -y(1) + y(3)

dy(3) = -0.51 * y(1) * y(2)

对该微分方程组用ode45和自编的龙格库塔函数进行比较,调用如下:

[T,F] = ode45(@test_fun,[0 15],[1 1 3])

subplot(121)

plot(T,F)%Matlab自带的ode45函数效果

title('ode45函数效果')

[T1,F1]=runge_kutta1(@test_fun,[1 1 3],0.25,0,15)%测试时改变test_fun的函数维数,别忘记改变初始值的维数

subplot(122)

plot(T1,F1)%自编的龙格库塔函数效果

title('自编的 龙格库塔函数')

1.支持向量机(SVM)概述

(1)支持向量机(Support Vector Machines,SVM)是一种二元分类模型,它是一类模型的统称,其中包括:

①线性可分支持向量机;

②线性支持向量机;

③非线性支持向量机。

(2)核心思想:

    训练阶段在特征空间中寻找一个超平面,它能(或尽量能)将训练样本中的正例和负例分离在它的两侧,预测时以该超平面作为决策边界判断输入实例的类别。寻找超平面的原则是,在可分离的情况下使超平面与数据集间隔最大化。

(3)支持向量机的分类示意图为:

简单来说,SVM的原理就是在平面内找到一条直线,使得这两类不同的样本点分开,并且保证能够尽可能远的远离这条直线。用向量表示两类样本点之间的分类间隔(Margin)为:

支持向量机的目的是使r最大,等价于使||w||/2最小。而几何向量使分类间隔最大问题可以转化为运筹学上的约束优化问题。因为涉及太多复杂公式,此处省略。

只要理解了SVM的原理,并且学会利用sklearn库调用SVM模块,就达到了数据分析的目的。

2.SVM算法实现

(1)重要参数说明:

①kernel :核函数,默认是rbf,可以是‘linear’, ‘poly’, ‘rbf’, ‘sigmoid’, ‘precomputed’ 。

·kernel='linear'时为线性核,C越大分类效果越好,但有可能会过拟合(defaul C=1);

·kernel='poly'时为多项式核函数;

·kernel='rbf'时(default)为高斯核,gamma值越小,分类界面越连续;gamma值越大,分类界面越“散”,分类效果越好,但有可能会过拟合。

②decision_function_shape:

·decision_function_shape='ovr'时,为one v rest,即一个类别与其他类别进行划分;

·decision_function_shape='ovo'时,为one v one,即将类别两两之间进行划分,用二分类的方法模拟多分类的结果。

(2)程序实现过程:

【注】

在分类型模型评判的指标中,常见的方法有如下三种:

①混淆矩阵(也称误差矩阵,Confusion Matrix)

    混淆矩阵是评判模型结果的指标,属于模型评估的一部分。此外,混淆矩阵多用于判断分类器(Classifier)的优劣,适用于分类型的数据模型,如分类树(Classification Tree)、逻辑回归(Logistic Regression)、线性判别分析(Linear Discriminant Analysis)等方法。

混淆矩阵的一级指标:

通过混淆矩阵可以计算出评估模型的几个指标(二级指标):

三级指标:F1-score

其中,P代表Precision,R代表Recall。

F1-Score指标综合了Precision与Recall的产出的结果。F1-Score的取值范围从0到1的,1代表模型的输出最好,0代表模型的输出结果最差。

Ps:当分类结果多于两种时,需要将结果转化为上面的类型。

详细内容参考博文https://blog.csdn.net/Orange_Spotty_Cat/article/details/80520839

②ROC曲线

③AUC面积


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/8149968.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-13
下一篇 2023-04-13

发表评论

登录后才能评论

评论列表(0条)

保存