PytorchNLLloss

Pytorch NLL loss and Cross Entropy Loss

CrossEntropy

  1. 输入不要求归一化到1
  2. 输入:logits,target

logits是$K\times C$的矩阵,C是分类维数,K是Batch_size,记作

target对应每个instance的label

对应的Loss根据每个instance的logits和对应的ground truth计算得到

自动计算infonce loss

NLL Loss

NLL Loss要求输入归一化为概率

随后生成log-likelihood

计算损失函数无需归一化

本站访客数人次