label会送入交叉熵损失函数中进行计算损失值,那么该函数如何起作用呢?
官方定义如下,也存在ignore_index参数,且刚好等于-100,这个值是不参与损失计算的
torch.nn.CrossEntropyLoss(weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean', label_smoothing=0.0)
从数据维度来看,如下所示:
import torch
import torch.nn as nn
# 假设有3个类别,忽略索引为2的类别
criterion = nn.CrossEntropyLoss(ignore_index=2)
# 模拟模型输出和目标标签
outputs = torch.tensor([[0.9, 0.1, 0.0], [0.3, 0.4, 0.3], [0.01, 0.01, 0.98]])
targets = torch.tensor([0, 2, 1]) # 目标标签中包含了要忽略的类别2
# 计算损失
loss = criterion(outputs, targets)
print(loss)
输出:tensor(1.0763)
import torch
import torch.nn as nn
# 假设有3个类别,忽略索引为2的类别
criterion = nn.CrossEntropyLoss()
# 模拟模型输出和目标标签
outputs = torch.tensor([[0.9, 0.1, 0.0], [0.3, 0.4, 0.3], [0.01, 0.01, 0.98]])
targets = torch.tensor([0, 2, 1]) # 目标标签中包含了要忽略的类别2
# 计算损失
loss = criterion(outputs, targets)
print(loss)
输出:tensor(1.0952)
在PyTorch中,当使用nn.CrossEntropyLoss作为损失函数时,targets数组应该包含每个样本的类别索引,这些索引必须是非负整数,因为它们代表了类别标签。如果你使用-1作为类别索引,会违反这个要求,因为-1不是有效的类别索引,而且通常在这种情况下,PyTorch会抛出一个错误。
在上述案例代码中,target中的0对应0.9,2对应后面的0.3,1对应0.98