Линейная регрессия: важно помнить

В этой статье я рассмотрел базовое определение линейной регрессии, а затем добавлю дополнительные темы, которые являются жизненно важной частью алгоритма линейной регрессии. Например, Такие темы, как Функция стоимости, Градиентный спуск, Теорема сходимости и Глобальные минимумы, которые участвуют в прогнозировании линии наилучшего соответствия. , будет подробно рассмотрено.

Линейная регрессия — это базовый, но наиболее важный алгоритм машинного обучения. Он показывает линейную зависимость между независимой переменной (переменными) и одной целевой переменной.

Вы можете разделить это на два типа в зависимости от количества независимых переменных. Таким образом, если есть только одна независимая переменная, то это называется простой линейной регрессией, в которой только одна независимая переменная и одна целевая переменная. Например, мы должны предсказать цену дома (целевая переменная, y) на основе размера дома (независимая переменная, x).

Здесь линейное уравнение y =x

Второй тип — Множественная линейная регрессия, когда есть несколько независимых переменных. Поскольку линейная регрессия показывает связь между функциями и целью. Чтобы проверить математическое уравнение для этого, давайте разберемся с этим на примере:

Возьмите цену дома (y) в качестве цели, а площадь квадратных футов (x1), номер квартиры (x2) и местоположение (x3) - это три характеристики, тогда уравнение будет

y = a0 + a1x1 + a2x2 + a3x3

здесь a0 — это Intercept, а a1, a2 и a3 — коэффициенты в отношении трех разных функций. Это указывает на то, что если есть увеличение значения x1, то a1 будет говорить о том, насколько увеличится значение y или цена, аналогичная определению для других независимых функций.

Это все для этой статьи для базового начала линейной регрессии, и я буду добавлять следующие темы по одной. Пожалуйста, ознакомьтесь с этим чтением и сделайте комментарий, чтобы поделиться своими знаниями.