В настоящее время я пытаюсь придумать новую структуру для CLDNN (сверточная, LSTM, глубокая нейронная сеть)
Как и в случае с любыми другими сетями, мне сложно оптимизировать гиперпараметры.
Я хотел бы попробовать поиск по сетке и случайный поиск, чтобы получить оптимальный набор гиперпараметров, но я не совсем понимаю кое-что.
Если я запускаю моделирование сети с временным набором гиперпараметров, как я могу измерить «доброту» гиперпараметров? Я думал о том, чтобы записать стоимость и точность обучения после N эпох для каждой симуляции.
Поскольку каждая симуляция занимает относительно много времени (для моей сети требуется около 70 секунд для тренировки в течение одной эпохи), есть ли более быстрый способ проверить «качество» гиперпараметров без фактического выполнения полного обучения?
Есть ли общий совет по оптимизации гиперпараметров?