Pytorch NLL loss and Cross Entropy Loss
CrossEntropy
- 输入不要求归一化到1
- 输入:logits,target
logits是$K\times C$的矩阵,C是分类维数,K是Batch_size,记作
target对应每个instance的label
对应的Loss根据每个instance的logits和对应的ground truth计算得到
自动计算infonce loss
NLL Loss
NLL Loss要求输入归一化为概率
随后生成log-likelihood
计算损失函数无需归一化