Публикации по теме 'loss'
Демистификация оптимизации для машинного обучения
Оптимизация - самый важный ингредиент в рецепте алгоритмов машинного обучения. Он начинается с определения какой-то функции потерь / функции стоимости и заканчивается ее минимизацией с помощью той или иной процедуры оптимизации. Выбор алгоритма оптимизации может иметь значение для получения хорошей точности в часах или днях. Возможности оптимизации безграничны, и эта тема широко исследуется как в промышленности, так и в академических кругах. В этой статье мы рассмотрим несколько..
Вопросы по теме 'loss'
ffmpeg конвертировать без потери качества
Мне нужно преобразовать все видео в мой видеоплеер (на веб-сайте), если тип файла отличается от flv/mp4/webm.
Когда я использую: ffmpeg -i filename.mkv -sameq -ar 22050 filename.mp4 :
[h264 @ 0x645ee0] ошибка при декодировании MB 22 1,...
60907 просмотров
schedule
12.12.2023
Попарный критерий подобия в факеле
Я хочу реализовать новый критерий в torch7.
По сути, у меня есть пара образцов, для которых у меня есть нормализованное реальное значение сходства (обозначим его «d»).
Среди существующих критериев наиболее близким мне может быть...
423 просмотров
schedule
23.05.2023
Добавить пользовательскую функцию потери в Torch
Каковы необходимые шаги для реализации пользовательской функции потерь в Torch?
Похоже, вам нужно написать реализацию для updateOutput и updateGradInput.
В том, что все? Итак, вы в основном создаете новый класс:
local CustomCriterion,...
407 просмотров
schedule
11.02.2024
Ошибка CHECK при записи пользовательского слоя потерь в Caffe
Я получаю следующую ошибку при запуске тестового примера для пользовательской функции потерь в caffe . Эта функция потерь использует слой Reshape на bottom большом двоичном объекте для этого слоя (это упоминается в методе LayerSetUp()...
249 просмотров
schedule
10.07.2022
Шумная потеря тренировки
Я обучаю модель на основе внимания кодер-декодер с размером пакета 8. Я не подозреваю, что в наборе данных слишком много шума, однако примеры взяты из нескольких разных дистрибутивов.
Я вижу много шума на кривой потерь поезда. После усреднения...
6215 просмотров
schedule
03.03.2024
DCGAN генерирует просто шум
Я пытаюсь обучить DCGAN на наборе данных "Лица с метками в дикой природе" с форма изображения (64,64,3). После тренировки в течение 1000 и более эпох он производит просто шум. Код выглядит следующим образом:
class GAN():
img_rows = 64...
1001 просмотров
schedule
16.05.2022
Используйте разные оптимизаторы в зависимости от оператора if в TENSORFLOW.
В настоящее время я пытаюсь реализовать нейронную сеть с двумя этапами обучения. Сначала я хочу уменьшить функцию loss_first_part, а затем я хочу уменьшить функцию loss_second_part.
tf.global_variable_initializer().run()
for epoch in...
304 просмотров
schedule
10.06.2023
Pytorch, `backward` RuntimeError: Попытка вернуться по графику второй раз, но буферы уже освобождены
Я реализую DDPG с PyTorch (0.4) и застрял, возвращая потерю. Итак, сначала мой код, выполняющий обновление:
def update_nets(self, transitions):
"""
Performs one update step
:param transitions: list of sampled...
3943 просмотров
schedule
03.08.2022
Почему не меняются потери Дискриминатора и Генератора?
Я пытаюсь реализовать генерирующую состязательную сеть (GAN) для набора данных MNIST. Для этого я использую Pytorch. Моя проблема в том, что после одной эпохи потери Дискриминатора и Генератора не меняются.
Я уже пробовал два других метода...
1664 просмотров
schedule
07.12.2022
Keras tensorflow бэкэнд модифицирует потерю
Хорошо, у меня есть небольшая проблема с изменением потери keras с помощью бэкэнда tensorflow.
Если я использую keras.losses.sparse_categorical_crossentropy как потерю, это будет работать как обычная sparse_categorical_crossentropy.
Однако, если...
45 просмотров
schedule
14.12.2022
FairSeq — взвешивание потерь образца
Я пытаюсь изучить модель seq2seq с помощью Fairseq. Я хочу иметь разное взвешивание потерь для каждого образца, чтобы были примеры, которые модель будет пытаться лучше подогнать. Как правильно это сделать? Может быть, лучшие библиотеки для этой цели?
50 просмотров
schedule
15.11.2023
MSELoss при использовании маски
Я пытаюсь вычислить MSELoss при использовании маски. Предположим, что у меня есть тензор с batch_size 2: [2, 33, 1] в качестве цели и другой входной тензор с той же формой. Поскольку длина последовательности может отличаться для каждого...
814 просмотров
schedule
11.06.2024
показатели производительности в данных обучения и проверки не отображаются во время обнаружения объектов в тензорном потоке 2
Я тренирую модель обнаружения объектов в пользовательском наборе данных, используя Effectivedet-d1. Я работаю с tensorflow 2 в colab .
Я ссылался на следующие учебники...
203 просмотров
schedule
11.10.2022
потери тензорного потока и веса выборки
Два простых вопроса о потерях Tensorflow и весах выборки. Представьте, что у меня есть неглубокая полностью сверточная нейронная сеть со следующей моделью: Image(16x16x1) -> Conv2 (16x16x10) -> поэтому выход — вектор o[1][1][10] с 10 нейронами....
172 просмотров
schedule
05.10.2022
Функция Pytorch Loss для создания подобных вложений
Я работаю над моделью встраивания, где есть модель BERT, которая принимает текстовые входы и выводит многомерный вектор. Цель модели - найти похожие вложения (высокое косинусное сходство) для похожих текстов и разные вложения (низкое косинусное...
514 просмотров
schedule
31.03.2022
Pytorch - RuntimeError: ожидаемый объект скалярного типа Long, но получил скалярный тип Float для аргумента № 2 «цель» при вызове _thnn_nll_loss_forward
Я пробовал и экспериментировал с PyTorch, где я создавал свои собственные входы и цели. Я передал эти входные данные модели (которая представляет собой базовую ИНС с двумя скрытыми слоями, в этом нет ничего плохого). Но по какой-то причине я не могу...
40 просмотров
schedule
27.04.2023