Развертывание модели

Создание модели на Google Cloud Platform может принимать разные формы, но насколько она на самом деле безопасна после ее развертывания? Есть несколько огромных преимуществ в использовании безопасности GCP, но есть несколько вещей, которые Servian всегда делает для решения проблем безопасности и конфиденциальности.

Скажем, например, что у меня есть игра, в которой используется обученный алгоритм машинного обучения, чтобы предоставить пользователю данные о погоде в реальном времени, так что погода в игре отражает погоду там, где он находится.

Система приложений

Наш пример приложения будет развернут в App Engine. Datalab используется для разработки аналитических моделей, которые развертываются посредством потоковой обработки, предоставляемой Dataflow.

Пользователи будут входить в систему с учетной записью, а взаимодействия будут храниться в GCP. Каждое взаимодействие, на которое они нажимают в игре, будет добавлено в базу данных, содержащую пользователей в игровом инвентаре. Данные о местоположении пользователя и погоде будут время от времени обновляться, скажем, каждые несколько часов, и прогнозируемые результаты будут возвращаться в наше приложение.

Как мы обеспечиваем безопасность?

Размещая наши данные в Google Cloud и используя такие сервисы, как BigQuery, мы получаем встроенную систему безопасности Google, которая включает:

-Шифрование в пути

- Несколько вариантов шифрования в состоянии покоя, включая предоставленные пользователем ключи или ключи шифрования, управляемые Google.

Эти данные, хранящиеся в BigQuery, очень безопасны, и доступ к ним можно контролировать с помощью Google Управление идентификацией и доступом (IAM). Это означает, что доступ к ресурсам могут получить только пользователи или группы с соответствующими ролями. Для предприятий мы всегда стремимся интегрировать IAM с корпоративными хранилищами управления доступом, такими как Active Directory, чтобы использовать существующие процессы, связанные с приемом на работу и увольнением персонала.

Как мы обеспечиваем конфиденциальность?

Для пользователей нашего приложения мы можем захотеть использовать машинное обучение, чтобы предположить, что пользователи, которые купили ту же покупку в приложении, также могут быть заинтересованы в третьем продукте. Чтобы обеспечить надлежащее обращение с конфиденциальными обучающими данными, у нас есть:

-Безопасное хранение на GCP для правильной обработки конфиденциальных данных

-Деидентификация: API Cloud Data Loss Prevention (DLP) может деидентифицировать конфиденциальные данные в текстовом содержимом, включая текст, хранящийся в контейнерных структурах, таких как таблицы.

- Ведение журнала аудита для подотчетности

- Используйте региональные сегменты хранилища и региональные вычислительные ресурсы для соответствия требованиям суверенитета данных.

Краткие сведения о безопасности для моделей машинного обучения в GCP

Теперь, когда мы настроили нашу модель и развернули ее с помощью GCP, мы можем запустить ее с уверенностью, что наши пользовательские данные будут в безопасности. Чтобы узнать больше о безопасности GCP, мы рекомендуем следующие страницы Google:

https://cloud.google.com/security/

https://cloud.google.com/security/products/

https://cloud.google.com/security/overview/