Атака искусственного интеллекта — это манипулирование системой ИИ с конечной целью заставить ее работать со сбоями и перестать работать для ее использования. Эти атаки могут принимать различные формы и поражать различные слабые места лежащих в их основе алгоритмов.

Кибер-уязвимость в искусственном интеллекте

Кибератаки зависят от триады ЦРУ, состоящей из конфиденциальности, целостности и доступности.

Мошенничество. С точки зрения ИИ это означает неправильную классификацию задач, например введение неверных данных в обучающие наборы данных (заражение данных) или взаимодействие с системой на этапе обучения или производства, заставляющее ее выдавать неправильный результат.

Саботаж: преднамеренное действие, направленное на ослабление ИИ с целью вывести из строя функциональность системы путем переполнения ИИ поддельными запросами или модификацией модели, вызывающей ее разрушение.

Целевой фишинг. Чтобы улучшить существующие методы фишинга, хакеры используют алгоритмы машинного обучения для создания персонализированных привлекательных сообщений, побуждающих пользователей делиться с ними конфиденциальной информацией. Например, хакеры могут создавать персонализированные электронные письма, замаскированные так, чтобы они выглядели так, будто они отправлены близким родственником или коллегой, и заманивать их делиться личной информацией.

Шпионаж. С точки зрения кибербезопасности означает слежку за системой и использование ее информации для собственной выгоды или планирование более изощренных атак. Другими словами, хакер может использовать программу на основе машинного обучения, чтобы отследить и узнать больше о внутреннем устройстве набора данных.

Использование ИИ в приложениях (особенно в сфере информационной безопасности). Атаки с отравлением данных используются для создания лазеек в моделях машинного обучения, основанных на потребителях.

Автоматизированные платформы наблюдения. Возможности государственной слежки расширяются за счет обработки изображений и аудио с помощью ИИ, что позволяет собирать, обрабатывать и использовать разведывательную информацию в огромных масштабах для множества целей. в том числе подавление дебатов.

Реалистичные фальшивые новости. Благодаря современной генерации изображений и использованию НЛП можно создавать изображения, чтобы поддельные новые выглядели реалистично.

Связано с терроризмом: системы искусственного интеллекта могут быть повторно использованы во вред, например, для использования дронов или беспилотных автомобилей для доставки взрывчатых веществ и причинения аварий.

Атаки в реальной жизни: физические объекты могут использоваться для кибератак таким образом, что атака ИИ может превратить знак остановки в зеленый свет в глазах беспилотного автомобиля, просто поместив несколько штук скотча на самом знаке «стоп» и заставить его выглядеть не так, как он был обучен. С помощью этих атак данные также можно по-новому использовать в качестве оружия, требуя изменений в способах сбора, хранения и использования данных.

Искусственный интеллект в кибербезопасности

Расходы на информационную безопасность и управление рисками могут составить до 175,5 млрд долларов к 2023 году. В настоящее время 75% предприятий полагаются на решения на основе ИИ для сетевой безопасности, а 51% используют ИИ в качестве основного варианта обнаружения угроз.

Защита конфиденциальности. Это информация, которую вы хотели бы сохранить только для себя, чтобы она не попала в руки компаний, хакеров и государственных организаций. Этот тип решения может быть реализован с использованием ИИ при попытке найти закономерности или признаки террористов среди гражданского населения, найти инфицированных граждан среди более крупного здорового населения, среди различных сценариев.

Предотвращение преступлений. Система искусственного интеллекта вместе с большими данными может помочь в обнаружении мест совершения преступлений. Типы преступлений, как правило, связаны с пространством и временем, а данные, связанные с преступлением, такие как тип преступления, место преступления и преступное оружие, могут помочь предсказать будущие места преступления.

Биометрия. ИИ уже широко используется для распознавания лиц и улыбок, и многие пользователи смартфонов используют эти передовые методы безопасности в форме Faced ID.

Обнаружение ботов. Боты, или автоматизированные учетные записи в социальных сетях, повлияли на политические выборы, манипулировали фондовыми рынками, подделывали подписчиков и вызывали эпидемии в области здравоохранения. Однако методы глубокого обучения могут обнаруживать ботов раньше, чем раньше, отделять их от учетных записей, принадлежащих людям, и минимизировать их угрозу.

Развитие хотя бы одной области (искусственного интеллекта или кибербезопасности) поможет нам найти более разумные и безопасные технологические решения в будущем.