Я пробовал и экспериментировал с PyTorch, где я создавал свои собственные входы и цели. Я передал эти входные данные модели (которая представляет собой базовую ИНС с двумя скрытыми слоями, в этом нет ничего плохого). Но по какой-то причине я не могу вычислить CrossEntropyLoss(). Я не могу понять, почему. Я знаю, что некоторые другие вопросы на StakcOverflow имеют такое же название, как у меня, или имеют аналогичную проблему. Я прошел через это, но у меня ничего не получилось. У многих людей были проблемы с набором данных, что не похоже на мою проблему.
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
class Net(nn.Module):
def __init__(self) -> None:
super(Net, self).__init__()
self.layer1 = nn.Linear(2, 10)
self.layer2 = nn.Linear(10, 1)
def forward(self, x):
x = F.relu(self.layer1(x))
x = self.layer2(x)
return x
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = Net().to(device=device)
loss_fn = nn.CrossEntropyLoss()
learning_rate = 1e-3
epochs = 20
optimizer = optim.Adam(model.parameters(), lr=learning_rate)
inputs = torch.Tensor([
[0,0],
[0,1],
[1,0],
[1,1]
], ).to(device=device)
targets = torch.Tensor([
0,
1,
1,
0
]).to(device=device)
model.train()
for epoch in range(epochs):
pred_output = model(inputs)
print(pred_output.dtype)
print(targets.dtype)
loss = loss_fn(pred_output, targets)
optimizer.zero_grad()
loss.backward()
optimizer.step()
print()
break
Ошибка, которую я вижу,
torch.float32
torch.float32
Traceback (most recent call last):
File ".\main.py", line 57, in <module>
loss = loss_fn(pred_output, targets)
File "C:\Users\user\anaconda3\lib\site-packages\torch\nn\modules\module.py", line 889, in _call_impl
result = self.forward(*input, **kwargs)
File "C:\Users\user\anaconda3\lib\site-packages\torch\nn\modules\loss.py", line 1047, in forward
return F.cross_entropy(input, target, weight=self.weight,
File "C:\Users\user\anaconda3\lib\site-packages\torch\nn\functional.py", line 2693, in cross_entropy
return nll_loss(log_softmax(input, 1), target, weight, None, ignore_index, None, reduction)
File "C:\Users\user\anaconda3\lib\site-packages\torch\nn\functional.py", line 2388, in nll_loss
ret = torch._C._nn.nll_loss(input, target, weight, _Reduction.get_enum(reduction), ignore_index)
RuntimeError: Expected object of scalar type Long but got scalar type Float for argument #2 'target' in call to _thnn_nll_loss_forward