在pytorch中使用交叉熵损失时,应该使用softmax作为输出吗?

在pytorch中使用交叉熵损失时,应该使用softmax作为输出吗?,第1张

在pytorch中使用交叉熵损失时,应该使用softmax作为输出吗?

torch.nn.CrossEntropyLoss()
文档中所述:

这一标准联合收割机

nn.LogSoftmax()
,并
nn.NLLLoss()
在一个单独的类。

因此,你应该 使用前SOFTMAX。



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5431308.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-11
下一篇 2022-12-11

发表评论

登录后才能评论

评论列表(0条)

保存