太古奇损失函数的局限性在于将顾客的损失定义为一个绝对值,认为只要偏离顾客原先订立的目标,就会给顾客带来损失。但事实上,损失有正向损失和负向损失之分。正向损失就是企业提供的产品或服务的特性与顾客目标之间的差距,并实实在在地造成了顾客的损失。而负向损失虽然也是产品服务特性与顾客目标之间的差距,但这种差距给顾客带来了惊喜,超出了顾客的期望值,可以说是“物超所值”,这种负向的损失实际上增加了顾客的价值,而不是损失。但在太古奇损失函数中,即使超出了顾客期望,也被定义为损失,这显然是与事实不相符的。
损失函数画图
Hinge loss function:
H(z)=max(0,1−z)
ψ-learning loss function:
ϕs(z)={sz<00z≥0
Normalized Sigmoid loss:
Pt(z)=1−tanh(tz)
Ramp loss function:
Rs(z)={0z>01−z0≤z≤11−sz>1
%plot loss function
%define the loss function
H = @(z)max(0,1-z) ; %Hinge loss function
P = @(z)(2(z<0)+0(z>=0)); %\psi-learning loss function
S = @(z)(1-tanh(2z)); %Normalized Sigmoid loss function
R = @(z)(1(z<0)+(1-z)(z>=0&z<1)+0(z>=1)); % ramp loss
z=-2:001:2;
subplot(1,4,1) % plot the 1st figure of 1-4
plot(z,H(z),'-','linewidth',2);
xlabel('z');
title('Hinge loss','fontweight','normal','fontsize',10);
axis([-2,2 0 3])
subplot(1,4,2)
plot(z,P(z),'g-','linewidth',2);
xlabel('z');
title('\psi-learnig loss','fontweight','normal','fontsize',10);
axis([-2,2 0 3])
subplot(1,4,3)
plot(z,S(z),'r-','linewidth',2);
xlabel('z');
title('Normalized Sigmoid loss','fontweight','normal','fontsize',10);
axis([-2,2 0 3])
subplot(1,4,4)
plot(z,R(z),'b-','linewidth',2);
xlabel('z');
title('Ramp loss','fontweight','normal','fontsize',10);
axis([-2,2 0 3])
惩罚项的设置取决于模型的类型,损失函数的形式,以及模型的复杂度。
1、惩罚项设置得越低,模型复杂度越高,拟合结果也越好,但容易出现过拟合问题。
2、惩罚项设置得越高,模型复杂度越低,拟合结果也越差,但容易出现欠拟合问题。
3、惩罚项的设置需要在实际任务中进行折中调整,以求得最优的拟合结果。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)