Публикации по теме 'feature-selection'


Раскрытие возможностей проектирования и выбора признаков в машинном обучении: всесторонний…
Введение. Разработка и выбор признаков играют ключевую роль в машинном обучении, где выбор или создание соответствующих признаков из необработанных данных может значительно повлиять на производительность модели. Разработка функций включает в себя преобразование и объединение существующих функций для извлечения значимой информации, в то время как выбор функций направлен на выявление наиболее информативных функций для конкретной задачи. В этом расширенном и всеобъемлющем руководстве мы..

Краткий код Python для устранения обратного пути с подробным объяснением
Обратное исключение — это усовершенствованный метод выбора признаков для выбора оптимального количества признаков. Иногда использование всех функций может привести к замедлению или другим проблемам с производительностью в вашей модели машинного обучения. Введение в обратное исключение в машинном обучении Если ваша модель имеет несколько функций, возможно, не все функции одинаково важны. Некоторые функции на самом деле могут быть получены из других функций. Таким образом, чтобы улучшить..

Предсказать транзакцию в следующем месяце с помощью линейной регрессии (окончание)
Выбор функций и моделирование данных Перемотка назад В этом проекте мы следовали подходу к управлению CRISP-DM, чтобы создать комплексную структуру проекта ML. Некоторые из затронутых тем из предыдущих частей проиллюстрированы следующим образом: ✅Понимание бизнеса ✅ Понимание данных ✅ Подготовка данных ❌ Моделирование ❌ Оценка ❌ Развертывание В этой статье я расскажу об остальных подходах, включая моделирование , оценку и развертывание . Обзор предыдущих частей —..

Открытый курс машинного обучения. Тема 6. Разработка и выбор функций.
В этом курсе мы уже видели несколько ключевых алгоритмов машинного обучения. Однако, прежде чем перейти к более интересным, мы хотели бы сделать небольшой экскурс и поговорить о подготовке данных. Известная концепция «мусор на входе - мусор на выходе» на 100% применим к любой задаче машинного обучения. Любой опытный профессионал может вспомнить много раз, когда простая модель, обученная на высококачественных данных, оказывалась лучше, чем сложный многомодельный ансамбль, построенный на..

Уменьшение размерности в машинном обучении (выбор функций)
Как мы уменьшаем размерность или функции в наборе данных, чтобы создать оптимальную модель машинного обучения Уменьшение размерности важно, когда мы имеем дело с большим количеством независимых переменных (признаков) для прогнозирования зависимой переменной. Это относится как к моделям регрессии, так и к моделям классификации. В: Зачем нам нужно уменьшение размерности? A: Рассмотрим сценарий, в котором мы пытаемся предсказать цену дома, используя его площадь (в квадратных футах). Мы..

Наш стажер-робот в области науки о данных
Наш стажер-робот в области науки о данных Автоматизация утомительных частей машинного обучения Практики машинного обучения знают, насколько огромным может быть количество возможностей, которые у нас есть при построении модели. Это как пойти в ресторан и иметь меню размером с книгу, и мы никогда не пробовали ни одного блюда. Какие модели мы тестируем? Как мы настраиваем их параметры? Какие функции мы используем? Те, кто пытается решить эту проблему с помощью специальных ручных..

Выбор характеристик линейной модели
выбор важных функций Иногда даже самый простой из алгоритмов линейная регрессия может казаться немного перегруженной множеством функций X для прогнозирования переменной отклика Y. С многомерными функциями модель может потерять свою интерпретируемость и может оказаться трудным объяснить особенности, ответственные за дисперсию в переменной отклика Y. С многомерными элементами модель могла потерять свою предсказательную силу на тестовых данных из-за одного из следующих..