Регресс? Это не общий термин!
Вот определение из Википедии.
В статистическом моделировании регрессионный анализ представляет собой набор статистических процессов для оценки отношений между переменными. Он включает в себя множество методов моделирования и анализа нескольких переменных, когда основное внимание уделяется взаимосвязи между зависимой переменной и одной или несколькими независимыми переменными (или предикторами).
Вот простая версия:
Регрессия (или регрессионный анализ) – это способ определения связи между выходной (зависимой) переменной и одной или несколькими входными (независимыми) переменными.
Чтобы получить наглядное представление, ознакомьтесь с другой статьей здесь.
Общие регрессионные модели включают:
- Простая линейная регрессия
- Множественная линейная регрессия
- Полиномиальная регрессия
- Логистическая регрессия
Не беспокойтесь. Это проще, чем кажется.
Простая линейная регрессия
Как кажется, это действительно просто. В этом типе регрессии у нас есть только одна входная переменная («x») и одна выходная переменная («y»). Простой! Единственная константа, которую вам нужно определить, — это наклон в процессе, называемом градиентным спуском. В результате получается идеально прямая линия. Подробнее об этом позже.
Для справки, приведенное ниже уравнение представляет собой решение простой задачи линейной регрессии.
y = w*x +b
Множественная линейная регрессия
Это просто обновленная версия простой линейной регрессии. Вместо одной независимой (входной) переменной имеется несколько независимых переменных. Это единственная разница. Если вам интересно, как выглядит математика, вот она:
y = w1*x1 +w2*x2 + w3*x3 + ….. + wn*xn + b
Где x – это входные (независимые) переменные, w – соответствующие веса, y – выходная (зависимая) переменная, а b это предвзятость.
Здесь следует отметить пару вещей.
Во-первых, существует несколько входных переменных и, следовательно, несколько весов для каждой входной переменной. Веса обычно разные.
Во-вторых, как и прежде, есть только один предвзятый термин. Это связано с тем, что приведенное выше уравнение предназначено только для одной строки (пример) набора данных. Таким образом, член смещения вносит вклад только в текущий результат.
Гибкость множественной линейной регрессии заключается в том, что в алгоритм можно передать практически любое количество переменных, что приведет к одному результату. Это также создает плоскость в трех измерениях.
Для простоты мы визуализируем случай только в трех измерениях, так как человеческому мозгу чрезвычайно трудно визуализировать более высокие измерения.
Примечание: измерение является синонимом количества переменных.
Но что, если данные нелинейны?
Здесь на помощь приходит полиномиальная регрессия.
Полиномиальная регрессия
Обратите внимание на картинку ниже:
Да, вы правильно догадались! Это больше не прямая линия.
Математические уравнения полиномиальной регрессии имеют примерно следующий вид:
y = w1*x1² + w2*x2³ + w3*x3⁴ + … + wn*xn + b
Обратите внимание, что приведенное выше уравнение является лишь примером. Показатели переменных могут различаться в зависимости от рассматриваемой проблемы.
Если вам все еще трудно понять, посмотрите на картинку ниже.
Я почти уверен, что вы сможете его распознать.
y = x²
Видите ли, зависимая переменная «y» сопоставляется с «x²». Таким образом, у вас есть график, как показано выше.
Точно так же разные уравнения имеют разные графики для одного и того же.
Еще одна интересная картина для наборов данных более высокого измерения.
Круто, да?
Далее мы подходим к логистической регрессии. Но ждать! Тема логистической регрессии требует отдельной статьи, потому что это тема огромной и жизненно важной. Поэтому он будет рассмотрен в следующей статье.
Резюме
В этой статье вы узнали о различных типах задач и моделей регрессии и получили интуитивное представление о том, чем модели отличаются друг от друга. Далее мы узнаем о логистической регрессии, а затем узнаем о том, как работает градиентный спуск, который лежит в основе проблем машинного обучения и глубокого обучения. До тех пор,
Обновите свой разум, обновите свою жизнь!