损失函数与反向传播

损失函数与反向传播,第1张

损失函数与反向传播
import torch

inputs = torch.tensor([1, 2, 3], dtype=float)
targets = torch.tensor([4, 5, 6], dtype=float)

loss = torch.nn.L1Loss(reduction='sum')
output = loss(inputs, targets)
print(output)

L1损失函数的用法,L1损失函数可以求绝对值之和或者是绝对值平均,默认是求绝对值平均。

loss_mse = torch.nn.MSELoss()
output_mse = loss_mse(inputs, targets)
print(output_mse)

MSE损失函数,该损失函数是平方差,ℓ(x,y)=L={l1​,…,lN​}⊤,ln​=(xn​−yn​)^2,默认情况下是求输入值和目标值之间平方差之和的平均值,当然也可以就求和

loss_cross = torch.nn.CrossEntropyLoss(reduction="mean")
x = torch.tensor([0.1, 0.5, 0.8])
x = torch.reshape(x, (1, 3))
targets = torch.tensor([1])
output = loss_cross(x, targets)
print(output)

 交叉熵损失函数公式如下;

值得注意的是,输入格式为(N,C,*),N为batchsize,C为类别数量,另外reduciton可以指定是平均还是求和对所有的batch的损失。另外,标签如上所示,我们这里的x输入是3维的,因此类别种类是3,然后我们的标签是1,那么在计算时标签会自动生成0,1,0 的向量,如果是2就生成0,0,1的one-hot形式,标签设为0也类似的。

 

反向传播之计算梯度

my_model = Model()
loss_cross = nn.CrossEntropyLoss()
for data in dataloader:
    imgs, targets = data
    output = my_model(imgs)
    # print(imgs.shape)
    # print(output.shape)
    # print(targets.shape)
    loss = loss_cross(output, targets)
    print(loss)
    loss.backward()

首先,我们还是根据之前的交叉熵损失的计算,计算了交叉熵函数的损失,然后对损失loss进行一个backward,利用这一步我们就可以计算出,根据当前的mini-batch计算一个梯度,我们可以利用这个梯度执行一个权重更新即梯度下降

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5651286.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存