Публикации по теме 'cross-entropy'


Понимание softmax, кросс-энтропии и KL-дивергенции
Допустим, у меня есть классификатор для классификации кошек, собак и свиней. Есть много возможных способов реализации этого. Но самый простой способ — отдельно обучить три функции оценки: f ᶜᵃᵗ(⋅), f ᵈᵒᵍ(⋅) и f ᵖᶦᵍ(⋅). и классифицировать ввод в класс с наивысшим баллом. Например, при вводе x мы классифицируем x как кошку, если f ᶜᵃᵗ( x )› f ᵈᵒᵍ( x ) и f ᶜᵃᵗ( x )› f ᵖᶦᵍ( х ). Этот тип классификатора принимает жесткое -решение для каждого входа. Вне зависимости от того,..

Вопросы по теме 'cross-entropy'

Расчет кросс-энтропии в TensorFlow
Мне сложно вычислить кросс-энтропию в тензорном потоке. В частности, я использую функцию: tf.nn.softmax_cross_entropy_with_logits() Используя, казалось бы, простой код, я могу заставить его вернуть только ноль. import tensorflow as tf...
28204 просмотров

Бинарная кроссентропия для наказания всех компонентов одного горячего вектора
Я понимаю, что двоичная кросс-энтропия - это то же самое, что категориальная кросс-энтропия в случае двух классов. Кроме того, мне ясно, что такое softmax. Таким образом, я вижу, что категориальная кросс-энтропия просто наказывает один компонент...
2009 просмотров

маскирующие вероятности перед вычислением кросс-энтропии в тензорном потоке
Я нахожусь в условиях обучения с подкреплением, где пространство действий моей среды зависит от состояния. В итоге я прохожу следующую процедуру при выборке поведенческих действий: (1) генерировать логиты вероятности для всех возможных действий...
904 просмотров

caffe softmax со слоем потерь для расчета потерь семантической сегментации
Документация caffe по файлу softmax_loss_layer.hpp , по-видимому, нацелена на задачи классификации, а не на семантическую сегментацию. Однако я видел, как этот слой использовался для последнего. Каковы будут размеры входных и выходных...
459 просмотров
schedule 29.04.2023

Как применить бинарную кросс-энтропию поэлементно, а затем просуммировать все эти потери в Keras?
Я хочу написать функцию с двумя аргументами, A и B , тензорами одинаковой формы (например, 13x13 или другой формы), и которая возвращает число, которое представляет собой сумму всех потерь при применении двоичной кросс-энтропии покомпонентно. ....
1140 просмотров

От веса до потери кроссэнтропии
Скажем, у меня есть два класса, класс A (100 образцов) и класс B (100 образцов) в обучении, но во время тестирования класс A имеет (1000 образцов), а класс B (100 образцов). Как я должен рассчитывать и использовать веса для взвешенной потери...
238 просмотров

Применение метода PyTorch CrossEntropy для мультиклассовой сегментации
Я пытаюсь реализовать простой пример того, как применить кросс-энтропию к тому, что должно быть результатом моей семантической сегментации CNN. Используя формат pytorch, у меня было бы что-то вроде этого: out = np.array([[ [ [1.,1,...
5040 просмотров

Бинарная кросс-энтропия против категориальной кросс-энтропии с 2 классами
При рассмотрении проблемы классификации входа в один из 2 классов, 99% примеров, которые я видел, использовали NN с одним выходом и сигмоидой в качестве их активации с последующей двоичной кросс-энтропийной потерей. Другой вариант, о котором я...
401 просмотров
schedule 12.03.2022

Размер мини-пакета PyTorch CrossEntropyLoss
Я пытаюсь построить простой пример с нулевым CrossEntropyLoss, с тремя классами и размером мини-пакета = 1: ce_loss = nn.CrossEntropyLoss() outputs = torch.tensor([[1,0,3]], dtype=float) targets = torch.tensor([1,0,3], dtype=torch.int64) loss =...
1197 просмотров
schedule 27.06.2022

Почему моя глубокая нервная сеть медленно спускается с softmax в полностью подключенном слое, а не без softmax в полностью подключенном слое?
Я просто строю глубокие нервные сети, и моя сеть сходится быстрее, когда на полностью подключенном уровне нет функции активации (softmax). Но когда я добавляю эту функцию softmax, сходимость действительно плохая и даже стоп с очень большими потерями....
110 просмотров
schedule 01.09.2023

Потеря кроссэнтропии Pytorch с 3D-входом
У меня есть сеть, которая выводит трехмерный тензор размера (batch_size, max_len, num_classes) . Моя гордая правда в форме (batch_size, max_len) . Если я выполню однократное кодирование этикеток, они будут иметь форму (batch_size, max_len,...
784 просмотров

Выбор метрики проверки для `categorical_crossentropy` в Керасе
Я смотрю на эти два вопроса и документацию: Каков результат для метрик Keras categorical_accuracy? Категориальная кроссэнтропия должна использовать categorical_accuracy или точность как метрики в keras?...
149 просмотров
schedule 28.12.2023

UNET с функцией потери CrossEntropy
Я пытался обучить UNET с размером ввода как [3,128,128] и соответствующей маской [1,128,128], которая содержит классы напрямую (вместо пикселей она будет содержать номера классов - 1,2). Я пытаюсь решить проблему с двумя классами, поэтому моя маска...
123 просмотров

Pytorch - RuntimeError: ожидаемый объект скалярного типа Long, но получил скалярный тип Float для аргумента № 2 «цель» при вызове _thnn_nll_loss_forward
Я пробовал и экспериментировал с PyTorch, где я создавал свои собственные входы и цели. Я передал эти входные данные модели (которая представляет собой базовую ИНС с двумя скрытыми слоями, в этом нет ничего плохого). Но по какой-то причине я не могу...
40 просмотров
schedule 27.04.2023