Итак, у меня есть многослойная нейронная сеть, которая научилась выполнять И, ИЛИ, НЕ и исключающее ИЛИ. У меня есть сомнения по поводу обратного распространения. Я использую сигмовидную функцию, поэтому для определения градиента ошибки она выглядит примерно так:
(Цель - Выход) * Выход * (1 - Выход)
Но мой вопрос в том, что если у меня есть цель 1, а мой вывод равен 0, это приведет к чему-то вроде
(1 - 0) * 0 * (1 - 0), поэтому он скажет мне, что моя ошибка равна 0, хотя она (я думаю) 1. Это действительно должно быть 0 или это то, что я должен учитывать при оценке градиент? Может кто-нибудь объяснить мне, в чем логика этого 0? это локальный минимум функции или что-то в этом роде?