https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html
Когда я прочитал содержание выше, я понял, что torch.nn.CrossEntropy уже вычисляет оценку опыта последнего слоя. Поэтому я подумал, что функция forward не обязательно должна включать softmax. Например, верните self.fc (x), а не nn.softmax (self.fc (x)). Однако я смущен, поскольку видел несколько реализаций классификаторов ConvNet, которые используют оба способа (они возвращаются с softmax или без него, в то время как оба используют перекрестную потерю энтропии).
Влияет ли эта проблема на производительность классификатора? Какой путь правильный?