
Входы x1 и x2.

Два веса умножаются на соответствующие веса, w1 и w2.
Затем добавьте к сумме смещение и назовите его z1.
z1 = x1 * w1 + x2 * w2 +b1
Затем применить формулу для сигмоидной функции активации. (В этом случае мы выбираем сигмовидную функцию активации.)
Выходные данные скрытого слоя становятся входными данными для следующего слоя справа от него. Это равно

Таким же образом действует и второй узел скрытого слоя.

Входы x1 и x2 будут иметь одинаковое значение для H1 и H2. Но веса w1 и w2 могут быть разными для H1 и H2, а могут и не быть. И смещение тоже может быть разным, т.е. b1 и b2 могут быть разными.
Подробнее: Что такое смещение и вес в нейронных сетях?
Результат этого слоя будет

Затем переходим к следующему слою.
(См. самый верхний рисунок.) Выход поступает из H1. Мы называем это z1. Выход поступает из H2, и мы называем его z2. Они входят в O1. Веса умножаются на соответствующие входные данные, как и раньше. И мы выбираем сигмовидную функцию активации. Таким образом, выход O1 равен

Здесь y1= z1 * W1 + z2 * W2 + B1
Точно так же выход O2 равен

Здесь мы снова рассматриваем сигмовидную функцию активации.
Мы называем этот процесс прямым распространением, потому что мы всегда идем слева направо. Мы никогда не путешествуем назад.
Нравится этот блог? Нажмите здесь, чтобы увидеть больше таких блогов.
Подписывайтесь на меня на Medium, чтобы узнать больше.
Напишите мне на [email protected]
Мой никнейм в Instagram: Subarna Creative