Публикации по теме 'loss'


Демистификация оптимизации для машинного обучения
Оптимизация - самый важный ингредиент в рецепте алгоритмов машинного обучения. Он начинается с определения какой-то функции потерь / функции стоимости и заканчивается ее минимизацией с помощью той или иной процедуры оптимизации. Выбор алгоритма оптимизации может иметь значение для получения хорошей точности в часах или днях. Возможности оптимизации безграничны, и эта тема широко исследуется как в промышленности, так и в академических кругах. В этой статье мы рассмотрим несколько..

Вопросы по теме 'loss'

ffmpeg конвертировать без потери качества
Мне нужно преобразовать все видео в мой видеоплеер (на веб-сайте), если тип файла отличается от flv/mp4/webm. Когда я использую: ffmpeg -i filename.mkv -sameq -ar 22050 filename.mp4 : [h264 @ 0x645ee0] ошибка при декодировании MB 22 1,...
60907 просмотров
schedule 12.12.2023

Попарный критерий подобия в факеле
Я хочу реализовать новый критерий в torch7. По сути, у меня есть пара образцов, для которых у меня есть нормализованное реальное значение сходства (обозначим его «d»). Среди существующих критериев наиболее близким мне может быть...
423 просмотров
schedule 23.05.2023

Добавить пользовательскую функцию потери в Torch
Каковы необходимые шаги для реализации пользовательской функции потерь в Torch? Похоже, вам нужно написать реализацию для updateOutput и updateGradInput. В том, что все? Итак, вы в основном создаете новый класс: local CustomCriterion,...
407 просмотров
schedule 11.02.2024

Ошибка CHECK при записи пользовательского слоя потерь в Caffe
Я получаю следующую ошибку при запуске тестового примера для пользовательской функции потерь в caffe . Эта функция потерь использует слой Reshape на bottom большом двоичном объекте для этого слоя (это упоминается в методе LayerSetUp()...
249 просмотров
schedule 10.07.2022

Шумная потеря тренировки
Я обучаю модель на основе внимания кодер-декодер с размером пакета 8. Я не подозреваю, что в наборе данных слишком много шума, однако примеры взяты из нескольких разных дистрибутивов. Я вижу много шума на кривой потерь поезда. После усреднения...
6215 просмотров

DCGAN генерирует просто шум
Я пытаюсь обучить DCGAN на наборе данных "Лица с метками в дикой природе" с форма изображения (64,64,3). После тренировки в течение 1000 и более эпох он производит просто шум. Код выглядит следующим образом: class GAN(): img_rows = 64...
1001 просмотров
schedule 16.05.2022

Используйте разные оптимизаторы в зависимости от оператора if в TENSORFLOW.
В настоящее время я пытаюсь реализовать нейронную сеть с двумя этапами обучения. Сначала я хочу уменьшить функцию loss_first_part, а затем я хочу уменьшить функцию loss_second_part. tf.global_variable_initializer().run() for epoch in...
304 просмотров

Pytorch, `backward` RuntimeError: Попытка вернуться по графику второй раз, но буферы уже освобождены
Я реализую DDPG с PyTorch (0.4) и застрял, возвращая потерю. Итак, сначала мой код, выполняющий обновление: def update_nets(self, transitions): """ Performs one update step :param transitions: list of sampled...
3943 просмотров

Почему не меняются потери Дискриминатора и Генератора?
Я пытаюсь реализовать генерирующую состязательную сеть (GAN) для набора данных MNIST. Для этого я использую Pytorch. Моя проблема в том, что после одной эпохи потери Дискриминатора и Генератора не меняются. Я уже пробовал два других метода...
1664 просмотров

Keras tensorflow бэкэнд модифицирует потерю
Хорошо, у меня есть небольшая проблема с изменением потери keras с помощью бэкэнда tensorflow. Если я использую keras.losses.sparse_categorical_crossentropy как потерю, это будет работать как обычная sparse_categorical_crossentropy. Однако, если...
45 просмотров
schedule 14.12.2022

FairSeq — взвешивание потерь образца
Я пытаюсь изучить модель seq2seq с помощью Fairseq. Я хочу иметь разное взвешивание потерь для каждого образца, чтобы были примеры, которые модель будет пытаться лучше подогнать. Как правильно это сделать? Может быть, лучшие библиотеки для этой цели?
50 просмотров
schedule 15.11.2023

MSELoss при использовании маски
Я пытаюсь вычислить MSELoss при использовании маски. Предположим, что у меня есть тензор с batch_size 2: [2, 33, 1] в качестве цели и другой входной тензор с той же формой. Поскольку длина последовательности может отличаться для каждого...
814 просмотров

показатели производительности в данных обучения и проверки не отображаются во время обнаружения объектов в тензорном потоке 2
Я тренирую модель обнаружения объектов в пользовательском наборе данных, используя Effectivedet-d1. Я работаю с tensorflow 2 в colab . Я ссылался на следующие учебники...
203 просмотров

потери тензорного потока и веса выборки
Два простых вопроса о потерях Tensorflow и весах выборки. Представьте, что у меня есть неглубокая полностью сверточная нейронная сеть со следующей моделью: Image(16x16x1) -> Conv2 (16x16x10) -> поэтому выход — вектор o[1][1][10] с 10 нейронами....
172 просмотров
schedule 05.10.2022

Функция Pytorch Loss для создания подобных вложений
Я работаю над моделью встраивания, где есть модель BERT, которая принимает текстовые входы и выводит многомерный вектор. Цель модели - найти похожие вложения (высокое косинусное сходство) для похожих текстов и разные вложения (низкое косинусное...
514 просмотров

Pytorch - RuntimeError: ожидаемый объект скалярного типа Long, но получил скалярный тип Float для аргумента № 2 «цель» при вызове _thnn_nll_loss_forward
Я пробовал и экспериментировал с PyTorch, где я создавал свои собственные входы и цели. Я передал эти входные данные модели (которая представляет собой базовую ИНС с двумя скрытыми слоями, в этом нет ничего плохого). Но по какой-то причине я не могу...
40 просмотров
schedule 27.04.2023