Публикации по теме 'relu'


Путаница последовательности функций нормализации и активации партии
Путаница в последовательности функций пакетной нормализации и активации Процесс построения нейронной сети включает в себя множество методологий и приемов. Специалист по анализу данных должен внимательно наблюдать за влиянием каждой функции на результат работы сети, прежде чем принимать решение о выборе для этой сети. Специалисты по обработке данных и исследователи проводят масштабный анализ и исследования, чтобы сопоставить любую функцию с ситуацией, в которой она может работать..

Вопросы по теме 'relu'

Tensorflow ReLu не работает?
Я написал сверточную сеть в тензорном потоке с relu в качестве функции активации, однако она не обучается (потери постоянны для набора данных eval и train). Для разных функций активации все работает как надо. Вот код, в котором создается nn:...
853 просмотров

Реализовать управляемый BackProp в TensorFlow 2.0?
Я пытаюсь применить управляемое обратное распространение ( https://arxiv.org/abs/1412.6806 ) с помощью TensorFlow 2.0. Чтобы применить управляемое обратное распространение, нам нужно изменить градиенты relu. Я прочитал беседу в Как применить...
481 просмотров
schedule 16.03.2022

TypeError: relu () отсутствует 1 обязательный позиционный аргумент: 'x'
Я получаю эту ошибку и не знаю, почему она появляется. Кто-нибудь, помогите мне. import warnings warnings.filterwarnings('ignore',category=FutureWarning) import tensorflow as tf import keras from keras.layers.convolutional import Conv2D,...
1316 просмотров
schedule 22.03.2024