Публикации по теме 'regression'


Множественная регрессия против многомерной регрессии в машинном обучении
Если вы эксперт в области машинного обучения или такой же энтузиаст, как и я, вы так или иначе столкнетесь с РЕГРЕССИЯ. Что ж, регрессия в ML — это просто предсказание определенной переменной на основе некоторых других зависимых переменных. Я приведу вам пример, цена автомобиля может зависеть от года его выпуска, таким образом, вы можете предсказать цену данного автомобиля на основе его года выпуска. Переходя к нашей теме, множественная регрессия — это то, где мы должны прогнозировать..

Плюсы и минусы регрессии: типы, обучение и оценка
Регрессия — это тип алгоритма обучения с учителем в области машинного обучения, который используется для прогнозирования непрерывного или действительного результата для заданного ввода. В этом блоге мы рассмотрим все тонкости регрессии, включая различные типы алгоритмов регрессии, методы, используемые для обучения этих моделей, и метрики оценки, используемые для оценки их производительности. Существует несколько различных типов алгоритмов регрессии, каждый из которых имеет свои сильные..

Погружение в регрессию опорных векторов с помощью Python
Как нам известно, алгоритмы SVM в основном используются для классификации и редко для регрессии. Хотя он предоставляет нам алгоритм SVR для выполнения необходимого. В моем предыдущем блоге я в основном говорил о том, как можно классифицировать данные с помощью уловки ядра в SVM, здесь я собираюсь объяснить, как SVR помогает в регрессии данных. Задача Support Vector - найти гиперплоскость в N-мерном пространстве, которая может классифицировать точки данных. Точки данных,..

Логистическая регрессия: краткое описание.
Несмотря на то, что это называется регрессией (прогноз, при котором цель является непрерывной), это метод классификации, основанный на вероятности. В ситуациях, когда нам нужно спрогнозировать качественную реакцию. например Маленький, средний или большой. Для прогнозирования можно использовать логистическую регрессию, и это явление называется классификацией. Существуют различные методы классификации, такие как K-ближайший сосед, деревья решений, случайный лес, машины опорных векторов и..

Как получить B0 и B1 в линейной регрессии
Что такое Бо и В1? эти параметры модели иногда называют teta0 и teta1. По сути, B0 представляет собой точку пересечения, а затем представляет наклон линии регрессии. Все мы знаем, что линия регрессии задается формулой Y = B0 + B1.X Чтобы понять, как Y выражается как функция X с этими параметрами модели, и понять, как выбирается наиболее подходящая линия, в этой публикации выводится пошаговая формула для B0 и B1. Рассмотрим некоторые проблемы, как показано ниже, лучшая линия регрессии..

XGBoost: Extreme Gradient Boosting - все, что вам нужно знать
Прежде чем мы углубимся в алгоритм XGBoost, мы должны немного узнать контекст, чтобы понять, почему и где этот алгоритм используется. Если вы хотите узнать больше о XGBoost, могу предположить, что вы хорошо знакомы с алгоритмами дерева решений, которые являются частью метода нелинейного контролируемого машинного обучения . Теперь мы иногда комбинируем несколько деревьев решений, чтобы получить сильного обучаемого с более эффективными прогнозами, чем одно слабое дерево решений при..

Введение в регуляризацию с использованием регрессий Риджа и Лассо
Вы можете спросить себя: зачем нужна регуляризация? Прежде всего, регуляризация регрессионных моделей позволяет избежать переобучения при автоматической подгонке нашей модели. Регуляризация выполняется путем добавления штрафа к нашей функции потерь. Вспомните нашу функцию потерь для простой регрессии методом наименьших квадратов (OLS). Путем выбора значения бета, которое минимизирует сумму квадратов ошибок (SSE), находится линия наилучшего соответствия. Переоснащение может..