Что такое Бо и В1? эти параметры модели иногда называют teta0 и teta1. По сути, B0 представляет собой точку пересечения, а затем представляет наклон линии регрессии.

Все мы знаем, что линия регрессии задается формулой Y = B0 + B1.X

Чтобы понять, как Y выражается как функция X с этими параметрами модели, и понять, как выбирается наиболее подходящая линия, в этой публикации выводится пошаговая формула для B0 и B1.

Рассмотрим некоторые проблемы, как показано ниже, лучшая линия регрессии выбрана с B0 = 19,969 и B1 = 0,00776, поэтому как алгоритм нашел это значение для B0, B1, чтобы найти эту линию, которая лучше всего сравнивается с любой линией, которая может быть получена для эта проблема в руке.

Итак, какова формула для B0 и B1, которая дает эту наилучшую линию? Дает ли одна только эта формула наиболее подходящую линию?

Прежде чем мы погрузимся в математику для вывода формулы для B0 и B1, давайте сначала обсудим допущения, сделанные в линейной регрессии.

Допущение, сделанное в линейной регрессии

а. Переменные следуют линейному тренду, т. Е. Кривая регрессии имеет линейную форму

б. Член ошибки Гаусса является независимым и центрируется в соответствии с распределением Гаусса со средним значением нуля и дисперсией сигмы²

c. Поскольку гауссова ошибка не зависит от гауссовского распределения (как указано выше), переменная отклика (Y) также следует гауссовскому распределению вероятностей с параметрами. т.е. поскольку гауссова ошибка является независимой случайной величиной, переменная ответа также является независимой случайной величиной

Погружение в вывод формул:

В линейной регрессии мы пытаемся найти наиболее подходящую линию [Y = B0 + B1.X]. Параметры B0 и B1 выбраны таким образом, чтобы линия отображала тренд с наименьшей ошибкой. Таким образом, основная цель здесь - найти значение минимального значения B0 и B1, чтобы ошибка, вносимая при подборе линии регрессии, была меньше.

Таким образом, мы можем математически представить эту цель как

В приведенном выше уравнении S представляет собой выпуклую функцию, поэтому, перебирая разные значения B0 и B1, мы пытаемся найти лучшую комбинацию B0 и B1, которая приведет к меньшей ошибке при подборе линии регрессии. Примечание: мы стараемся минимизировать ошибку, поэтому мы пытаемся найти минимальное значение B0 и B1.

Таким образом, приведенное выше уравнение может быть представлено как в уравнении ниже как функция, которая минимизирует квадрат расстояния между фактическим y и прогнозируемым.

В дифференциальном исчислении мы говорим, что функция достигает минимального значения, если наклон в данной точке равен нулю. поэтому здесь мы пытаемся найти точку, в которой выпуклая функция имеет минимальное значение, поэтому в приведенном ниже уравнении мы приравниваем ее к нулю.

Дифференцируя уравнение 1 по B0, получаем

аналогично дифференцируя уравнение 2 по B1, получаем

Записывая уравнения 3 и 4 через Yi, мы получаем

Поскольку нас интересует нахождение B0 и B1, мы выводим их из уравнений 5 и 6, как показано ниже:

Поскольку у нас есть формула для B0, нам остается найти только B1, который мы выводим из уравнения 6, как показано ниже,

Как вы заметили, мы просто играем с умножением и ныряем «n» везде, где требуется,

Таким образом, мы вывели формулу для B1. Следует отметить, что B1 - это не что иное, как

Таким образом, это формальные формы для B0 и B1, на основе которых алгоритм стохастического спуска в дальнейшем воздействует на выпуклую функцию S, как мы обсуждали ранее. Таким образом, алгоритм градиентного спуска пытается найти глобальный оптимум путем итерации и находит соответствующие значения B0 и B1, которые соответствуют точке, где находятся глобальные минимумы, так что линия регрессии будет иметь наименьшую возможную ошибку.

Если вам нужна помощь, обращайтесь ко мне @ Linkedin. Буду рад вам помочь.