Публикации по теме 'softmax'
Понимание softmax, кросс-энтропии и KL-дивергенции
Допустим, у меня есть классификатор для классификации кошек, собак и свиней. Есть много возможных способов реализации этого. Но самый простой способ — отдельно обучить три функции оценки: f ᶜᵃᵗ(⋅), f ᵈᵒᵍ(⋅) и f ᵖᶦᵍ(⋅). и классифицировать ввод в класс с наивысшим баллом. Например, при вводе x мы классифицируем x как кошку, если f ᶜᵃᵗ( x )› f ᵈᵒᵍ( x ) и f ᶜᵃᵗ( x )› f ᵖᶦᵍ( х ).
Этот тип классификатора принимает жесткое -решение для каждого входа. Вне зависимости от того,..
Вопросы по теме 'softmax'
Использование разреженных тензоров для подачи заполнителя для слоя softmax в TensorFlow
Кто-нибудь успешно пробовал использовать разреженные тензоры для анализа текста с TensorFlow? Все готово, и мне удается загрузить feed_dict в tf.Session для слоя Softmax с множеством массивов, но я не могу загрузить словарь с помощью...
2907 просмотров
schedule
09.03.2023
Как я могу определить несколько меток параллельно (в нейронной сети) с помощью softmax-output-layer в тензорном потоке?
В связи с проектной работой моего магистерского исследования я реализую нейронную сеть с использованием библиотеки tenorflow от Google. При этом я хотел бы определить (на выходном слое моей нейронной сети прямого распространения) несколько меток...
335 просмотров
schedule
21.04.2022
np.sum для оси строки не работает в Numpy
Я написал функцию регрессии softmax def softmax_1(x) , которая по существу принимает матрицу m x n , возводит ее в степень, а затем суммирует экспоненты каждого столбца.
x = np.arange(-2.0, 6.0, 0.1)
scores = np.vstack([x, np.ones_like(x), 0.2 *...
1111 просмотров
schedule
01.08.2023
Попиксельный softmax для полностью сверточной сети
Я пытаюсь реализовать что-то вроде полностью сверточной сети, где последний слой свертки использует размер фильтра 1x1 и выводит тензор «оценки». Тензор очков имеет форму [Пакет, высота, ширина, число_классов].
Мой вопрос в том, какая функция в...
3767 просмотров
schedule
29.09.2023
RuntimeWarning: недопустимое значение обнаружено в большем
Я попытался реализовать soft-max со следующим кодом ( out_vec - это numpy вектор чисел с плавающей запятой):
numerator = np.exp(out_vec)
denominator = np.sum(np.exp(out_vec))
out_vec = numerator/denominator
Однако у меня возникла ошибка...
96054 просмотров
schedule
07.06.2023
О механизме/поведении функции softmax_cross_entropy_with_logits в Tensorflow
:)
Привет, ребята.
Сейчас я работаю над классификацией Multi-hot с использованием тензорного потока.
Если используется softmax_cross_entropy_with_logits, функция потерь увеличивается (например, потери: 50 -> потери: 190000 -> потери:...
92 просмотров
schedule
03.12.2022
Функция Softmax в Tensorflow не отображает правильный ответ
Я тестировал функцию softmax из Tensorflow, но полученные ответы не кажутся правильными.
Таким образом, в приведенном ниже коде kh представляет собой матрицу [5,4]. softmaxkh должна быть матрицей softmax kh . Однако даже не выполняя...
251 просмотров
schedule
29.03.2024
Как умножаются матрицы в иерархической модели Softmax?
Как я понял, простой подход word2vec использует две матрицы, подобные следующей: Предполагается, что корпус состоит из N слов. Взвешенная входная матрица (WI) с размерами NxF (F - количество характеристик). Взвешенная выходная матрица (WO) размером...
197 просмотров
schedule
20.07.2023
Как избежать разделения веса между определенными слоями в BucketingModule в mxnet?
Я использую BucketingModule для одновременного обучения нескольких небольших моделей/ботов. Здесь ключ ведра — bot_id . Однако у каждого бота есть отдельный набор целевых меток/классов (и, следовательно, разный размер слоя softmax для каждого...
66 просмотров
schedule
03.09.2022
caffe softmax со слоем потерь для расчета потерь семантической сегментации
Документация caffe по файлу softmax_loss_layer.hpp , по-видимому, нацелена на задачи классификации, а не на семантическую сегментацию. Однако я видел, как этот слой использовался для последнего.
Каковы будут размеры входных и выходных...
459 просмотров
schedule
29.04.2023
Есть ли простой способ расширить существующую функцию активации? Моя пользовательская функция softmax возвращает: операция имеет «Нет» для градиента
Я хочу реализовать попытку ускорить softmax, используя только верхние значения k в векторе.
Для этого я попытался реализовать пользовательскую функцию для тензорного потока для использования в модели:
def softmax_top_k(logits, k=10):...
84 просмотров
schedule
18.12.2023
Возьмите точность n высоковероятностных выходных данных из модели Keras Lstm.
У меня есть модель Lstm для прогнозирования последовательности, которая показана здесь:
def create_model(max_sequence_len, total_words):
input_len = max_sequence_len - 1
model = keras.models.Sequential()...
224 просмотров
schedule
19.02.2023
Потеря мягкой маржи MultiLabel в PyTorch
Я хочу реализовать классификатор, который может иметь 1 из 10 возможных классов. Я пытаюсь использовать для этого функцию MultiClass Softmax Loss. Просматривая документацию, я не понимаю, какой ввод требуется для функции.
В документации...
2768 просмотров
schedule
28.07.2023
Керас категориальная перекрестная энтропия ошибка softmax input.dim_size
Я разрабатываю довольно сложный конвейер, в котором я создаю tf.Datasets из файлов TFRecords и загружаю их в модель Keras вместе с увеличением данных и множеством проверок и валидаций. Поэтому позвольте мне извиниться за то, что я не смог привести...
671 просмотров
schedule
22.11.2023
Реализация активации Softmax
В настоящее время я работаю над собственной реализацией нейронной сети на Java. Я уже реализовал некоторые общие функции активации, такие как Sigmoid или ReLU, но я не знаю, как реализовать Softmax.
Я хочу иметь такой метод, как
private double...
1322 просмотров
schedule
26.06.2023
Почему моя глубокая нервная сеть медленно спускается с softmax в полностью подключенном слое, а не без softmax в полностью подключенном слое?
Я просто строю глубокие нервные сети, и моя сеть сходится быстрее, когда на полностью подключенном уровне нет функции активации (softmax). Но когда я добавляю эту функцию softmax, сходимость действительно плохая и даже стоп с очень большими потерями....
110 просмотров
schedule
01.09.2023
caffe - понимание функции SoftmaxLayer :: Backward_cpu
Я новичок в кафе и пытаюсь понять реализацию обратной функции слоя softmax
template <typename Dtype>
void SoftmaxLayer<Dtype>::Backward_cpu(const vector<Blob<Dtype>*>& top,
const vector<bool>&...
34 просмотров
schedule
28.05.2022
мне нужно добавить softmax в def forward, когда я использую torch.nn.CrossEntropyLoss
https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html
Когда я прочитал содержание выше, я понял, что torch.nn.CrossEntropy уже вычисляет оценку опыта последнего слоя. Поэтому я подумал, что функция forward не обязательно должна...
170 просмотров
schedule
19.04.2024