Публикации по теме 'dimensionality-reduction'


Руководство по анализу основных компонентов
PCA - это модное слово, которое всегда появляется на многих этапах анализа данных для различных целей. Но что на самом деле стоит за этим анализом основных компонентов? Какая от этого польза? Посмотрим по одному. Во-первых, давайте разберемся, что происходит за экраном под названием PCA. Я прикрепил блокнот Jupyter с примерами внизу статьи . Шаг 1. Декорреляция точек данных Какова размерность этого графика? (Рисунок 1) Да, вы правы, это двухмерный график. Что..

Многообразное обучение для нелинейного уменьшения размерности
Хотя мы видели, что для уменьшения линейной размерности у нас есть методы уменьшения размерности, такие как PCA, SVD и добавочное обучение; мы с нетерпением ждем возможности сделать линейные модели более общими по отношению к нелинейным наборам данных. Эти методы могут отображать нелинейное вложение из данных высокой размерности (которые лежат на многообразии) в пространство низкой размерности, создавая при этом необходимые условия для возврата исходной конструкции высокой размерности. Мы..

Выбор функций - расширенный обзор
Выбор функций - исчерпывающий обзор Содержание Вступление Что такое выбор функций Что делает одни функции лучше других Выбор функции по информации на этикетке Выбор контролируемых функций Неконтролируемый выбор функций Выбор функции - перспектива данных Характеристики алгоритма выбора признаков Стабильность функции Представление признаков в финансовых преступлениях Ссылка Вступление В качестве метода уменьшения размерности выбор функций направлен на выбор небольшого..

Краткий код Python для устранения обратного пути с подробным объяснением
Обратное исключение — это усовершенствованный метод выбора признаков для выбора оптимального количества признаков. Иногда использование всех функций может привести к замедлению или другим проблемам с производительностью в вашей модели машинного обучения. Введение в обратное исключение в машинном обучении Если ваша модель имеет несколько функций, возможно, не все функции одинаково важны. Некоторые функции на самом деле могут быть получены из других функций. Таким образом, чтобы улучшить..

Анализ главных компонентов (PCA)
PCA для уменьшения размерности и визуализации данных В современную эпоху искусственного интеллекта данные — это новое топливо. Благодаря цифровизации существуют различные инструменты, которые собирают данные обо всем в мире. Возьмем, к примеру, Facebook. Facebook собирает различные типы пользовательских данных, таких как возраст, пол, связи и многое другое. Такие данные могут иметь более 1000 таких признаков. Для работы с такими многомерными данными для их обработки и создания..

Насколько широкой должна быть моя сеть?
В моей предыдущей истории я рассмотрел вопрос о том, сколько слоев нужно нейронной сети для простых задач классификации. Я изучил линейную классификацию наборов данных AND и OR, а также более сложные XOR и данные двух лун. Используя Keras, я показал, что нам нужен один слой для классификации линейных данных, в первую очередь потому, что одной гиперплоскости достаточно, чтобы различать разные метки, а для более сложных данных нам нужно как минимум два слоя. Действительно, согласно..

Уменьшение размерности в машинном обучении (выбор функций)
Как мы уменьшаем размерность или функции в наборе данных, чтобы создать оптимальную модель машинного обучения Уменьшение размерности важно, когда мы имеем дело с большим количеством независимых переменных (признаков) для прогнозирования зависимой переменной. Это относится как к моделям регрессии, так и к моделям классификации. В: Зачем нам нужно уменьшение размерности? A: Рассмотрим сценарий, в котором мы пытаемся предсказать цену дома, используя его площадь (в квадратных футах). Мы..