Публикации по теме 'explainable-ai'


Лучшие темы Твиттера от специалистов по данным # 28
В тренде на этой неделе: действенная объяснимость в машинном обучении; Как грамотно выполнять многозадачное обучение; Ускоренное обучение с постоянным подкреплением (VaPRL). Каждую неделю мы анализируем самые обсуждаемые темы в Твиттере от влиятельных лиц в области науки о данных и искусственного интеллекта. Следующие темы, URL-адреса, ресурсы и твиты были автоматически извлечены с использованием метода моделирования тем, основанного на Sentence BERT, который мы улучшили, чтобы он..

Понимание SHAP: руководство для начинающих по объяснимому ИИ
Введение В мире искусственного интеллекта и машинного обучения понимание того, почему модель делает тот или иной прогноз, может быть так же важно, как и сам прогноз. Именно здесь в игру вступает SHAP (аддитивные объяснения SHapley). SHAP — мощный инструмент, который помогает нам прояснить процессы принятия решений в моделях машинного обучения. В этом руководстве для начинающих мы рассмотрим, что такое SHAP, почему он важен и как его можно использовать для интерпретации и объяснения..

ИИ и парадокс объяснимости
Мир искусственного интеллекта (ИИ) постоянно развивается и меняется. Каждый день разрабатываются новые технологии, которые могут облегчить нашу жизнь. Однако было много путаницы в отношении того, как эти технологии работают и что они делают. Одна из областей, в которой людям часто трудно понять ИИ, — это объяснимость. Это означает, что вы должны быть в состоянии объяснить, почему ваши алгоритмы работают так, как они работают, на простом английском языке, чтобы люди могли понять, что..

Сила объяснимости: сравнительный анализ методов интерпретации машинного обучения…
В этой статье мы рассмотрим различные методы объяснения моделей машинного обучения. Мы углубимся в детали каждого метода, обсудив их преимущества и недостатки. Чтобы упростить понимание, мы будем использовать один и тот же набор данных на протяжении всей статьи. Прежде чем мы углубимся в детали, давайте на минутку поймем, что такое объяснимость и почему она имеет такое большое значение. В контексте машинного обучения объяснимость относится к способности понимать и интерпретировать,..

Выявление аномалий в производственных данных с помощью графовых нейронных сетей
В этом посте мы обсудим, как можно использовать графовые нейронные сети (GNN) для прогнозирования аномалий в производственных условиях, где данные имеют сложный, разнородный и последовательный характер. Мы рассмотрим, как GNN могут эффективно обрабатывать неполные входные данные, и предоставим комплексное решение для прогнозирования аномалий и их причин в таких условиях. Введение В современном промышленном производстве существует множество этапов и взаимодействующих элементов. Если..

Что такое модельно-независимые методы?
Все мощные методы, которые можно использовать с любой моделью Агностик размышляет о существовании бога. К счастью, машинное обучение не совсем там. Когда мы говорим об агностическом методе, мы имеем в виду метод, который можно использовать с любой моделью. Мы подробно остановимся на этом определении, и основное внимание будет уделено агностическим методам интерпретируемости. Мы обсудим различные классификации этих методов интерпретируемости. Это глобальные и локальные интерпретации,..

Визуализация значений Шепли во времени
Инсайт ML, о котором вы не знали Обзор Значения Шепли — широко используемая концепция в машинном обучении, особенно в области объяснимого искусственного интеллекта (XAI). Они обеспечивают способ справедливого распределения вклада каждой функции в результат прогноза, сделанного моделью машинного обучения. Основное преимущество значений Шепли заключается в том, что они предлагают математически строгий способ понять и объяснить прогнозы моделей. В контексте машинного обучения..