Публикации по теме 'relu'
Путаница последовательности функций нормализации и активации партии
Путаница в последовательности функций пакетной нормализации и активации
Процесс построения нейронной сети включает в себя множество методологий и приемов. Специалист по анализу данных должен внимательно наблюдать за влиянием каждой функции на результат работы сети, прежде чем принимать решение о выборе для этой сети. Специалисты по обработке данных и исследователи проводят масштабный анализ и исследования, чтобы сопоставить любую функцию с ситуацией, в которой она может работать..
Вопросы по теме 'relu'
Tensorflow ReLu не работает?
Я написал сверточную сеть в тензорном потоке с relu в качестве функции активации, однако она не обучается (потери постоянны для набора данных eval и train). Для разных функций активации все работает как надо.
Вот код, в котором создается nn:...
853 просмотров
schedule
14.11.2023
Реализовать управляемый BackProp в TensorFlow 2.0?
Я пытаюсь применить управляемое обратное распространение ( https://arxiv.org/abs/1412.6806 ) с помощью TensorFlow 2.0. Чтобы применить управляемое обратное распространение, нам нужно изменить градиенты relu. Я прочитал беседу в Как применить...
481 просмотров
schedule
16.03.2022
TypeError: relu () отсутствует 1 обязательный позиционный аргумент: 'x'
Я получаю эту ошибку и не знаю, почему она появляется. Кто-нибудь, помогите мне.
import warnings
warnings.filterwarnings('ignore',category=FutureWarning)
import tensorflow as tf
import keras
from keras.layers.convolutional import Conv2D,...
1316 просмотров
schedule
22.03.2024