Публикации по теме 'softmax'


Понимание softmax, кросс-энтропии и KL-дивергенции
Допустим, у меня есть классификатор для классификации кошек, собак и свиней. Есть много возможных способов реализации этого. Но самый простой способ — отдельно обучить три функции оценки: f ᶜᵃᵗ(⋅), f ᵈᵒᵍ(⋅) и f ᵖᶦᵍ(⋅). и классифицировать ввод в класс с наивысшим баллом. Например, при вводе x мы классифицируем x как кошку, если f ᶜᵃᵗ( x )› f ᵈᵒᵍ( x ) и f ᶜᵃᵗ( x )› f ᵖᶦᵍ( х ). Этот тип классификатора принимает жесткое -решение для каждого входа. Вне зависимости от того,..

Вопросы по теме 'softmax'

Использование разреженных тензоров для подачи заполнителя для слоя softmax в TensorFlow
Кто-нибудь успешно пробовал использовать разреженные тензоры для анализа текста с TensorFlow? Все готово, и мне удается загрузить feed_dict в tf.Session для слоя Softmax с множеством массивов, но я не могу загрузить словарь с помощью...
2907 просмотров
schedule 09.03.2023

Как я могу определить несколько меток параллельно (в нейронной сети) с помощью softmax-output-layer в тензорном потоке?
В связи с проектной работой моего магистерского исследования я реализую нейронную сеть с использованием библиотеки tenorflow от Google. При этом я хотел бы определить (на выходном слое моей нейронной сети прямого распространения) несколько меток...
335 просмотров
schedule 21.04.2022

np.sum для оси строки не работает в Numpy
Я написал функцию регрессии softmax def softmax_1(x) , которая по существу принимает матрицу m x n , возводит ее в степень, а затем суммирует экспоненты каждого столбца. x = np.arange(-2.0, 6.0, 0.1) scores = np.vstack([x, np.ones_like(x), 0.2 *...
1111 просмотров

Попиксельный softmax для полностью сверточной сети
Я пытаюсь реализовать что-то вроде полностью сверточной сети, где последний слой свертки использует размер фильтра 1x1 и выводит тензор «оценки». Тензор очков имеет форму [Пакет, высота, ширина, число_классов]. Мой вопрос в том, какая функция в...
3767 просмотров
schedule 29.09.2023

RuntimeWarning: недопустимое значение обнаружено в большем
Я попытался реализовать soft-max со следующим кодом ( out_vec - это numpy вектор чисел с плавающей запятой): numerator = np.exp(out_vec) denominator = np.sum(np.exp(out_vec)) out_vec = numerator/denominator Однако у меня возникла ошибка...
96054 просмотров
schedule 07.06.2023

О механизме/поведении функции softmax_cross_entropy_with_logits в Tensorflow
:) Привет, ребята. Сейчас я работаю над классификацией Multi-hot с использованием тензорного потока. Если используется softmax_cross_entropy_with_logits, функция потерь увеличивается (например, потери: 50 -> потери: 190000 -> потери:...
92 просмотров
schedule 03.12.2022

Функция Softmax в Tensorflow не отображает правильный ответ
Я тестировал функцию softmax из Tensorflow, но полученные ответы не кажутся правильными. Таким образом, в приведенном ниже коде kh представляет собой матрицу [5,4]. softmaxkh должна быть матрицей softmax kh . Однако даже не выполняя...
251 просмотров
schedule 29.03.2024

Как умножаются матрицы в иерархической модели Softmax?
Как я понял, простой подход word2vec использует две матрицы, подобные следующей: Предполагается, что корпус состоит из N слов. Взвешенная входная матрица (WI) с размерами NxF (F - количество характеристик). Взвешенная выходная матрица (WO) размером...
197 просмотров

Как избежать разделения веса между определенными слоями в BucketingModule в mxnet?
Я использую BucketingModule для одновременного обучения нескольких небольших моделей/ботов. Здесь ключ ведра — bot_id . Однако у каждого бота есть отдельный набор целевых меток/классов (и, следовательно, разный размер слоя softmax для каждого...
66 просмотров
schedule 03.09.2022

caffe softmax со слоем потерь для расчета потерь семантической сегментации
Документация caffe по файлу softmax_loss_layer.hpp , по-видимому, нацелена на задачи классификации, а не на семантическую сегментацию. Однако я видел, как этот слой использовался для последнего. Каковы будут размеры входных и выходных...
459 просмотров
schedule 29.04.2023

Есть ли простой способ расширить существующую функцию активации? Моя пользовательская функция softmax возвращает: операция имеет «Нет» для градиента
Я хочу реализовать попытку ускорить softmax, используя только верхние значения k в векторе. Для этого я попытался реализовать пользовательскую функцию для тензорного потока для использования в модели: def softmax_top_k(logits, k=10):...
84 просмотров

Возьмите точность n высоковероятностных выходных данных из модели Keras Lstm.
У меня есть модель Lstm для прогнозирования последовательности, которая показана здесь: def create_model(max_sequence_len, total_words): input_len = max_sequence_len - 1 model = keras.models.Sequential()...
224 просмотров
schedule 19.02.2023

Потеря мягкой маржи MultiLabel в PyTorch
Я хочу реализовать классификатор, который может иметь 1 из 10 возможных классов. Я пытаюсь использовать для этого функцию MultiClass Softmax Loss. Просматривая документацию, я не понимаю, какой ввод требуется для функции. В документации...
2768 просмотров
schedule 28.07.2023

Керас категориальная перекрестная энтропия ошибка softmax input.dim_size
Я разрабатываю довольно сложный конвейер, в котором я создаю tf.Datasets из файлов TFRecords и загружаю их в модель Keras вместе с увеличением данных и множеством проверок и валидаций. Поэтому позвольте мне извиниться за то, что я не смог привести...
671 просмотров

Реализация активации Softmax
В настоящее время я работаю над собственной реализацией нейронной сети на Java. Я уже реализовал некоторые общие функции активации, такие как Sigmoid или ReLU, но я не знаю, как реализовать Softmax. Я хочу иметь такой метод, как private double...
1322 просмотров
schedule 26.06.2023

Почему моя глубокая нервная сеть медленно спускается с softmax в полностью подключенном слое, а не без softmax в полностью подключенном слое?
Я просто строю глубокие нервные сети, и моя сеть сходится быстрее, когда на полностью подключенном уровне нет функции активации (softmax). Но когда я добавляю эту функцию softmax, сходимость действительно плохая и даже стоп с очень большими потерями....
110 просмотров
schedule 01.09.2023

caffe - понимание функции SoftmaxLayer :: Backward_cpu
Я новичок в кафе и пытаюсь понять реализацию обратной функции слоя softmax template <typename Dtype> void SoftmaxLayer<Dtype>::Backward_cpu(const vector<Blob<Dtype>*>& top, const vector<bool>&...
34 просмотров
schedule 28.05.2022

мне нужно добавить softmax в def forward, когда я использую torch.nn.CrossEntropyLoss
https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html Когда я прочитал содержание выше, я понял, что torch.nn.CrossEntropy уже вычисляет оценку опыта последнего слоя. Поэтому я подумал, что функция forward не обязательно должна...
170 просмотров
schedule 19.04.2024