Публикации по теме 'fairness'


Объяснение справедливости: определения и показатели
В соавторстве с Кэролин Саплицки , специалистом по обработке и анализу данных в экспертной лаборатории Trustworthy AI Practice, и Митали Банте , специалистом по данным в Expert Labs Trustworthy AI Practice. Поскольку все больше компаний обращаются к моделям искусственного интеллекта (ИИ) для получения результатов, основанных на данных, необходимо использовать ограничения для обеспечения надежности на протяжении всего жизненного цикла модели. ИИ может полностью раскрыть свой потенциал..

Предотвращение дискриминационных результатов в кредитных моделях
Машинное обучение используется для принятия крупномасштабных решений, которые могут сильно повлиять на жизнь людей. Не рассматривая и не анализируя такие сценарии, мы можем в конечном итоге построить модели, не относящиеся к обществу одинаково и даже нарушающие законы о борьбе с дискриминацией. Существует несколько алгоритмических вмешательств для выявления несправедливого обращения на основе того, что считается справедливым. В этой статье мы рассмотрим их и объясним их преимущества..

МИ2 говорит на userR! 2021
Пользователь! Конференция 2021» стартует совсем скоро, 5 июля. В этом году MI2DataLab продемонстрирует наши последние пакеты и приложения R в рамках трехчасового семинара по ответственному машинному обучению и пяти докладов. Не стесняйтесь подключать нас во время конференции, особенно для чатов, связанных с ответственным машинным обучением. Ознакомьтесь со списком ниже и до встречи на конференции! Семинар Введение в ответственное машинное обучение Пшемыслав Бичек, Хуберт..

Выполнение алгоритмической проверки в команде: практическое руководство
Продукты, основанные на науке о данных, рискуют включить социальные предубеждения в алгоритмы, которые их используют, что потенциально может нанести непреднамеренный вред своим пользователям. В Wellcome Data Labs мы думаем и открыто рассказываем о своем пути к выявлению и уменьшению этого вреда. Мы разделили наш процесс проверки на два потока Анализ воздействия продукта, который определяет вред, который может быть причинен продуктом, независимо от алгоритма. Алгоритмический процесс..

Формирование политики в области ИИ, часть 4: Учебник по справедливому и ответственному машинному обучению и искусственному интеллекту
Предвзятость. Дискриминация. Неравенство. Несправедливо. Безответственный. Неэтично. Несправедливый. Как все эти термины связаны с машинным обучением (ML) и искусственным интеллектом (AI)? В этом посте я затрону три темы, которые имеют решающее значение для руководителей и политиков: справедливость, ответственность и прозрачность (или объяснимость) машинного обучения и искусственного интеллекта. Наша жизнь сегодня управляется алгоритмами, и большинство из них - загадочный черный..